• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
MWC26
스테이블코인
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ai'통합검색 결과 입니다. (10591건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

동서발전, AI 예측경보시스템(e-PHI) 기술이전 결실

한국동서발전(대표 권명호)는 발전사 최초 자체 기술로 개발한 인공지능(AI)기반 예측경보시스템(e-PHI)이 해외 발전소 사업화에 성공했다고 8일 밝혔다. e-PHI는 발전설비 실시간 운전데이터와 상태정보를 AI가 학습해 설비 건전성을 사용자가 쉽게 인지하고, 조기에 고장징후를 탐지하고 이상상황을 예측하는 시스템이다. 선제적 설비 고장예방으로 불시정지 저감과 발전성능 효율 향상에 도움을 준다. 동서발전은 2020년 발전사 최초 자체 기술로 예측경보시스템을 개발해 2024년에는 중소기업에 무상 기술이전을 완료했다. 이후 현장 요구를 반영한 시스템 고도화를 통해 ▲딥러닝 기반 시계열분석의 미래예측 설비 이상 가능성 분석 기능 ▲최신 AI 알고리즘 적용 탐지·판단 성능 개선 ▲사용자 데이터 기반 모델 학습 원클릭 지원 기능 등을 추가해 예측 정확성과 사용자 편의성 높이며 시스템 운영 효율을 향상했다. 동서발전은 기술 고도화를 바탕으로 중소기업의 해외사업 진출을 지원해 자메이카전력공사(JPS)의 보그·올드하버 두 곳의 복합발전소에 구축을 완료했다. 중소기업 기술이전이 제품화로 이어져 해외시장까지 확산·운영되는 상생형 사업화 모델의 대표 사례다. 동서발전은 자체 개발한 솔루션의 해외 구축을 통해 제품 경쟁력을 확보하고 선제적 고장예방 체계를 한 단계 끌어올렸다. 특히 협력기업은 동서발전의 기술제공과 실증을 기반으로 신규 일자리 고용 창출과 특허등록의 가시적 성과를 거뒀다. 또 해외 기술 수출을 통해 10억원 규모 매출을 달성했다. 동서발전은 최신 e-PHI를 전사 발전설비에 확대 도입해 정부의 인공지능 전환(AX)·디지털 전환(DX) 전략에 부응하고, 국내외 발전산업의 디지털 분야 국산 기술력 확보와 동반성장 확산에 기여할 방침이다. 권명호 동서발전 사장은 “공기업의 기술개발 성과가 중소기업의 기술역량 향상과 해외 진출로 이어지도록 개방형 협력과 상생형 사업화를 지속 확대할 것”이라며 “앞으로도 안정적인 전력공급과 안전한 설비운영에 최선을 다하겠다”고 밝혔다.

2026.03.08 16:35주문정 기자

[AI전 된 이란전➃] 규범 지연 속 AI 전장 확장…국제 질서 시험대

인공지능(AI)이 생성한 표적 목록이 실제 폭격으로 이어지는 전장이 등장했지만 이를 통제할 국제 규범은 여전히 과거에 머물러 있다. AI가 전장에서 정보 분석과 표적 식별, 전략 설계까지 하고 있으나 법적 기준은 10년 전 논의 수준에서 크게 나아가지 못했다는 지적이 나온다. 8일 업계에 따르면 다양한 국방 AI 기술이 실전에 투입되는 가운데 이를 통제할 국제적 기준은 여전히 불명확한 상태다. AI의 전장 활용이 빠르게 확대되면서 기술의 속도와 국제 규범 사이의 격차가 점점 커지고 있다는 분석이 제기된다. 가자지구에서의 교전은 AI가 전장의 효율성을 극단적으로 높였을 때 나타나는 현실을 보여준다. 이스라엘 국방군은 '라벤더'와 '가스펠'로 불리는 AI 시스템을 활용해 표적 생성 속도를 크게 높였다. 이들 시스템은 과거 20명의 분석관이 300일에 걸쳐 식별하던 50~100개의 표적을 단 10~12일 만에 200개 수준까지 생성하는 것으로 알려졌다. 문제는 기술 속도의 발전이 윤리적 통제를 앞지르고 있다는 점이다. 라벤더 시스템의 오탐지율이 약 15%라는 분석이 있지만 실제 운용 과정에서 인간 검토는 제한적으로 이뤄졌다는 비판도 나온다. 현지 언론 보도에 따르면 지난 2023년 10~11월 가자 북부에서 진행된 대규모 공습 중 상당수가 이 시스템이 생성한 표적 목록을 기반으로 이뤄졌다. 이 기간 가자 북부에서만 1만5000명 이상이 사망한 것으로 집계되면서 AI 기반 표적 시스템이 민간인 피해 확대와 연결될 수 있다는 논란도 커졌다. 서구권 국가들이 AI 윤리 가이드라인을 둘러싼 논쟁을 이어가는 사이 중국은 전쟁 개념 자체를 재정의하고 있다. 중국 인민해방군은 지난 2019년 국방백서 이후 기계화와 정보화를 넘어선 '지능화'를 핵심 군사 전략으로 제시했다. 이는 AI를 기반으로 지휘통제와 정보·감시·정찰(C4ISR) 체계를 통합해 인간보다 빠른 속도의 전장 판단 체계를 구축하겠다는 개념이다. 이러한 변화는 AI 기술이 단순한 무기 체계를 넘어 군사 전략 전반을 재편하고 있음을 보여준다. 그러나 기술 경쟁이 가속화되는 속도에 비해 이를 규율할 국제 규범 논의는 좀처럼 진전을 보이지 못하고 있다. 유엔의 자율살상무기체계(LAWS)는 10년 넘게 논의가 이어지고 있지만 법적 구속력이 있는 협상은 시작되지 못했다. 미국·러시아·중국·이스라엘 등 주요 군사 강국의 이해관계가 엇갈리면서 관련 논의는 올해 이후로 또다시 미뤄질 전망이다. 세계 최초의 포괄적 AI 규제법으로 평가받는 유럽연합의 'AI법(AI Act)' 역시 군사 영역에 적용되지 않는다. 해당 법은 군사·방위·국가안보 목적의 AI 시스템을 적용 대상에서 제외하고 있다. 군과 정보기관이 민간 파트너와 협력할 때 발생할 수 있는 데이터 보호나 인권 침해 문제에 대해 사실상 의도적 공백을 허용했다는 비판이 나오는 이유다. 국제법과 제도의 공백이 길어지면서 전장의 기술 윤리를 두고 정부와 기업 간 갈등도 격화하고 있다. 최근 미국과 이스라엘의 이란 공습으로 지정학적 긴장이 고조된 가운데, 앤트로픽은 AI의 살상 무기 활용을 금지하는 원칙을 고수하며 미국 전쟁부(국방부)의 무제한 사용 요구를 거절했다. 이어 전쟁부가 앤트로픽을 '공급망 위험 기업'으로 공식 지정하면서 방위산업 업체들이 회사의 AI 모델 사용을 중단하거나 교체하는 사례가 이어지고 있다. 미국 정보기술혁신재단(ITIF)의 지난달 설문 조사 결과에 따르면, 미국인의 67%는 '정부의 입장과 다르더라도 민간 기술 기업이 자사 제품의 사용 방식에 제한을 설정할 책임이 있다'고 답했다. 또 응답자의 79%는 '치명적인 무력을 사용하기 전 반드시 인간이 최종 결정을 내려야 한다'는 원칙에 동의했다. 업계 관계자는 "이제 AI 전장 질서는 정부와 빅테크 간의 임시방편적인 대치로 결정돼선 안 된다"며 "군에는 명확한 지침을, 기업에는 예측 가능한 규칙을 제공하는 제도적 정비가 시급하다"고 말했다.

2026.03.08 16:19이나연 기자

검색 대신 물어보세요…'정부24' AI 대화형 서비스 도입

정부가 인공지능(AI)을 활용해 정부 서비스 이용 방식을 기존 검색 중심에서 대화 중심으로 전환한다. '정부24'에 AI 기능과 서비스 연계를 확대해 국민이 일상 언어로 질문하면 필요한 민원과 혜택을 안내받을 수 있도록 하는 등 디지털 행정 서비스 편의성을 높인다는 목표다. 행정안전부는 국민이 더 쉽고 편리하게 정부 서비스를 이용할 수 있도록 '정부24+' AI 기능과 서비스 연계를 개선했다고 8일 밝혔다. 이번 서비스는 오는 9일부터 대국민 시범서비스로 운영된다. 정부24+에 새롭게 도입된 AI 지능형 검색은 국민이 일상에서 사용하는 언어로 질문하면 관련 민원과 혜택을 맞춤형으로 안내하는 기능이다. 예를 들어 "이사했는데 무엇을 해야 하나요?", "아이가 태어났는데 받을 수 있는 지원이 있나요?"와 같이 질문하면 AI가 질문의 의미를 파악해 필요한 서비스와 절차를 종합적으로 안내한다. 질문이 모호한 경우에는 AI가 추가 질문을 통해 내용을 구체화해줘 처음 이용하는 사람도 쉽게 서비스를 이용할 수 있다. 민원을 신청할 때도 어려운 행정 용어나 복잡한 메뉴를 찾을 필요 없이 대화 방식으로 서비스를 이용할 수 있게 된다. 정부24+에서 이용할 수 있는 정부 서비스도 크게 확대됐다. 국민신문고의 고충·건의 민원, 관세청 개인통관고유부호 조회 등 50종의 서비스는 정부24+에서 바로 이용할 수 있다. 또 대법원 가족관계증명서 발급 등 513종 서비스도 정부24+에 한 번 접속하면 추가 절차 없이 각 기관의 서비스를 이용할 수 있다. 이용자 편의 기능도 강화됐다. 이전에 신청하거나 발급받은 이력을 활용해 첫 화면에서 바로 민원을 발급하는 '원클릭 민원 발급' 기능과 출산·결혼·이사 등 삶의 변화에 맞춰 필요한 민원과 혜택을 단계별로 안내하는 '인생여정 생활가이드'가 제공된다. 또 고령층을 위한 간편 전용 화면을 제공하고 모바일 앱에서는 입력 절차가 복잡한 민원의 신청 단계를 줄였다. 아울러 '내 지갑' 기능을 통해 신원자격과 증명서 등 개인화 서비스를 제공한다. 행안부는 향후 AI와 대화를 통해 필요한 민원 서류를 발급받는 '대화형 민원서류 발급 서비스'도 단계적으로 도입할 계획이다. 주민등록등·초본, 토지대장 등 국민 생활과 밀접하고 발급 수요가 많은 민원을 대상으로 먼저 적용할 예정이다. 윤호중 행안부 장관은 "이제 정부 서비스도 검색이 아니라 대화로 이용하는 시대가 열렸다"며 "앞으로 AI 기술을 적극 활용해 국민이 찾아다니는 정부가 아니라 국민에게 먼저 다가가는 AI 기반 정부 서비스를 확대해 나가겠다"고 밝혔다.

2026.03.08 16:18한정호 기자

"AI 글래스 출하량 작년 870만대→올해 1500만대"

전세계 인공지능(AI) 글래스 출하량이 지난해 870만대에서 올해 1500만대 이상으로 상승할 것이라고 시장조사업체 옴디아가 최근 전망했다. 올해 주요 기기 업체와 빅테크가 AI 글래스 시장에 진입하고, 1위 업체 메타가 출하량을 늘리며 새로운 시장에 진출하는 것이 기대요인이다. 옴디아는 인도와 일본, 한국 업체가 부상할 것이라고 덧붙였다. 시장 참여 업체가 늘면서 경쟁 구도가 기존의 단순 시장 진입에서 차별화와 규모 확대 등으로 바뀔 것이라고 옴디아는 전망했다. 주요 과제는 AI 글래스 하드웨어 기술 개선이다. 그 중에서도 시각 디스플레이와 상호작용 시스템, 그리고 고성능 시스템온칩(SoC)의 협력 강화, 배터리 수명 향상을 위한 소비전력 최적화 등이 핵심이다. 옴디아는 "메타는 브랜드 파트너십과 인공지능(AI) 통합을 기반으로 초기 시장을 주도했다"면서도 "시장 진출 업체가 늘면서 생태계 통합이 중요한 차별화 요인이 될 것"이라고 전망했다. 이어 "AI 글래스를 폭넓은 기기 생태계와 통합하고 이를 지능형 기기와 사용자 환경, 서비스를 연결해 사용자의 연결된 일상에 실질적 가치를 제공하는 업체가 승자가 될 것"이라고 예상했다. 지난해 전세계 AI 글래스 출하량 870만대는 전년비 322% 뛴 수치다. 업체별 점유율은 ▲메타(미국) 85.2%(740만대) ▲로키드(중국) 3.9%(34만대) ▲샤오미(중국) 3.5%(30만대) 순으로 많았다. 지난해 메타의 AI 글래스 출하량 740만대는 전년비 281% 많다. 메타는 오클리, 레이밴 등과 협력해 AI 글래스를 출시했다. 메타는 이들 제품을 인도와 멕시코, 브라질 등에서도 판매했다. 지역별로 중국이 미국(60% 이상)에 이어 2대 시장으로 커졌다. 지난해 중국에서 출하된 AI 글래스는 95만대로 전년비 3545% 뛰었다. 물량 기준으로는 전세계 출하량 870만대의 10.9%에 그쳤지만 성장률이 가장 가팔랐다. 중국 내 시장 점유율은 ▲샤오미 31.9%(30만대) ▲로키드 28.5%(27만대) ▲알리바바 15.9%(15만대) 순이었다. 자국 업체 비중이 컸다. 로키드는 중국 외 시장에서도 7만대를 판매했다. 옴디아는 "로키드가 다크호스로 떠올랐고, 개방형 전략을 바탕으로 중국뿐만 아니라 전세계 시장에서 경쟁력을 확보할 것"이라고 전망했다. 지난해 출하된 AI 글래스 중 디스플레이를 탑재한 제품은 8.4%인 73만대였다. 2024년의 3.3%(206만대 중 7만대)보다 커졌다. 지난해 디스플레이를 탑재한 AI 글래스 중에선 로키드와 알리바바 등 중국 업체 비중이 71%였다. 메타가 디스플레이를 적용해 출시한 레이밴 글래스 출하량은 8만4000대였다. 옴디아는 디스플레이를 탑재한 AI 글래스가 미묘하면서 맥락을 인식하는 상호작용 경험을 사용자에게 제공할 것이라고 전망했다. AI 어시스턴트 통합을 강화하고, 사용자의 자연스러운 상호작용을 방해하지 않으면서 사용자 시야에 지능을 반영해 상황에 맞춰 동작하는 앰비언트 AI 기능을 지원할 수 있기 때문이다.

2026.03.08 15:58이기종 기자

행안부·과기정통부, 범정부 AX 지원체계 가동

정부가 각 부처와 공공기관의 인공지능 전환(AX)을 지원하기 위한 범정부 전담 지원체계를 본격 가동한다. 정부기관이 추진하는 AX 사업을 대상으로 과제 기획부터 데이터·인프라 활용, 규제 대응, 성과 확산까지 전주기를 밀착 지원해 공공부문 AX를 가속화한다는 목표다. 행정안전부는 지난 6일 과학기술정보통신부와 함께 정부기관을 대상으로 '정부 AX사업 지원방안 설명회'를 개최하고 각 기관이 추진하는 AX 사업을 본격 지원한다고 8일 밝혔다. 이번 설명회는 지난 1월 제4회 과학기술관계장관회의에서 의결된 '정부 AX 원스톱 전주기 지원방안'의 후속 조치로 마련됐다. 과기정통부와 행안부가 공동으로 구축한 AX 지원센터의 역할과 세부 지원 내용, 향후 운영 방안을 정부기관에 안내하기 위해 개최됐다. 설명회에는 AX 사업을 추진하거나 계획 중인 33개 정부·공공기관이 참여했다. 이 자리에서 두 부처는 AX 사업 추진 과정에서 필요한 지원 방안을 설명하고 실제 사업 기획과 수행 과정에서 발생하는 애로사항과 지원 수요를 논의했다. 과기정통부는 정부기관을 대상으로 신규 AX 과제 기획부터 AI 학습데이터 구축, AI 모델 및 인프라 활용, 규제 컨설팅, 안전성과 신뢰성 확보까지 AX 수행 전 과정에 필요한 컨설팅과 기술·인프라 지원을 제공할 계획이다. 행안부는 중앙부처와 지방정부, 공공기관을 대상으로 과제 발굴부터 기획·설계, 공공 AI 자원 지원, 윤리·책임성 확보, 성과 확산까지 단계별 맞춤형 전주기 통합 지원체계를 운영한다. 현재 AI 민주정부 30대 핵심과제와 2026년 공공부문 AI 서비스 지원사업을 대상으로 기관 맞춤형 사업계획서 자문과 컨설팅을 진행하고 있다. 두 부처는 현재 45개 정부기관으로부터 AX 컨설팅 과제 수요를 접수했으며 AI 전문기업과 분야별 전문가로 구성된 AX 자문단을 통해 이달부터 AX 컨설팅을 본격 추진할 계획이다. 또 정책협의회를 정기적으로 개최해 각 부처가 보유한 AI 정책 역량과 그래픽처리장치(GPU), 범정부 AI 공통기반 등 AI 자원을 활용한 범정부 지원을 강화한다. 이진수 과기정통부 인공지능정책기획관은 "올해 전부처 AX사업 예산이 작년 대비 5배 이상 대폭 확대되며 각 정부기관이 AX를 본격적으로 추진하고 있는 상황"이라며 "전문기관, 민간전문가와 함께 AX 전담 지원체계를 본격 가동해 각 정부기관이 AX 성과를 조기에 창출할 수 있도록 적극 뒷받침하겠다"고 밝혔다. 이세영 행정안전부 인공지능정부정책국장은 "공공AI사업지원센터가 단순한 기술 지원을 넘어 국민이 체감할 수 있는 정부 혁신을 AI로 구현하는 핵심 지원체계가 되겠다"며 "과제 발굴부터 성과 확산까지 전주기를 책임지고 지원하며 공공분야 AX의 실질적 성과를 만들어가겠다"고 말했다.

2026.03.08 14:50한정호 기자

[ZD브리핑] 삼성전자 노조 5월 총파업 예고…9일 찬반 투표

지디넷코리아는 IT 업계의 이슈를 미리 체크하는 '이번 주 꼭 챙겨봐야 할 뉴스'를 제공합니다. '꼭 챙길 뉴스'는 정보통신, 소프트웨어(SW), 전자기기, 소재부품, 콘텐츠, 플랫폼, e커머스, 금융, 헬스케어, 게임, 블록체인, 과학 등의 소식을 담았습니다. 바쁜 현대인들의 월요병을 조금이나마 덜어 줄 '꼭 챙길 뉴스'를 통해 한 주 동안 발생할 IT 이슈를 미리 확인해 보시기 바랍니다. [편집자주] #. 삼성전자 노조 5월 총파업 예고…9일 파업 찬반 투표 삼성전자 노사 갈등이 심화되고 있습니다. 삼성그룹 초기업노동조합 삼성전자 지부가 오는 9일부터 제1회 총회 및 쟁의행위에 대한 찬반 투표를 시작합니다. 앞서 삼성노조 공동교섭단은 사측과 임금협상을 벌여왔으나, 지난 3일 조정 중지 결정을 받은 바 있습니다. 노조 측이 제시한 성과급 상한 폐지 건에서 이견을 좁히지 못한 것이 가장 큰 요인으로 지목됩니다. 이에 노조는 18일까지 쟁의행위 찬반투표를 실시하고 ▲3월 중순 쟁의권 확보 ▲4월 전 조합원 집회 ▲5월 총파업 등의 투쟁을 전개할 예정입니다. 우리나라 최대 규모 배터리 산업 전시회 '인터배터리 2026'이 11일부터 3일간 서울 코엑스에서 개최됩니다. 올해 행사에서도 기업들의 차세대 기술력을 살펴볼 수 있을 것으로 전망됩니다. 고성능 배터리 혁신을 이룰 것으로 기대를 받는 전고체 배터리뿐 아니라 시장 수요가 집중되는 LFP 배터리 관련 기술, 화재 안전성을 높이는 신기술 등을 전시합니다. 지난주 주유소 기름값 폭리에 엄정 대응을 선포한 정부가 이번주도 석유 가격 안정을 위해 석유시장 점검을 이어갑니다. 네탓 공방을 벌이던 정유사와 주유소 업계가 지난 6일 기름값 안정화에 협력하겠다고 밝혔지만, 오는 13일 공표될 정유사별 공급가격에 따라 책임 소재를 두고 다시 공방이 이어질 가능성도 있습니다. #. 과방위 ICT 과학기술 법안 논의 가속도 국회 과학기술정보방송통신위원회는 11일 전체회의를 열어 법안 처리에 나섭니다. 앞서 10일에는 법안심사 1, 2소위를 열어 발의된 법안을 심사합니다. 쟁점법안과 함께 여러 민생법안 처리에도 속도를 낸다는 방침입니다. 한국방송학회는 오는 13일 합리적인 방송미디어 심의제도를 주제로 정책세미나를 개최합니다. 김종철 방송미디어통신위원회 위원장의 축사 이후 공공미디어연구소 김희경 박사의 주제발표가 예정됐습니다. #. 이세돌, 10년 만에 AI와 격돌…스노우플레이크, 한국사무소 첫 오픈 인핸스는 오는 9일 서울 광화문 포시즌스 호텔에서 미디어 컨퍼런스를 개최합니다. 이번 행사는 10년 전 알파고와 이세돌의 역사적 대국이 펼쳐졌던 장소에서 열립니다. 이세돌 교수와 생성형 AI를 넘어 실제로 행동하고 결과를 만들어내는 AI 에이전트 시대의 새로운 시작을 알릴 예정입니다. 해당 컨퍼런스는 전 세계 유튜브로 생중계될 예정입니다. 더불어민주당 정동영 의원과 국민의힘 최형두 의원이 공동주최하는 'AI G3 강국 신기술 전략 조찬 포럼'은 오는 11일 서울 여의도 국회의원회관 제1세미나실에서 열립니다. 해당 포럼은 글로벌 AI 경쟁이 심화되는 상황에서 한국 기술 주권과 산업 경쟁력을 강화하기 위한 전략을 논의하기 위해 마련됐습니다. 정부·국회·산업계·학계 전문가들이 참석해 AI 반도체, 데이터 인프라, 인재 양성, 규제 체계 등 핵심 정책 과제를 점검할 예정입니다. 레드햇도 이달 11일 서울 양재 엘타워에서 'AI-레디 하이브리드 클라우드 플랫폼 구축 전략'을 주제로 고객·파트너 대상 테크데이를 개최합니다. 행사에선 오픈소스 기술을 기반으로 기존 가상머신(VM) 인프라부터 오픈시프트 기반 플랫폼, 나아가 AI 추론 환경까지 하이브리드 클라우드에서 연결·운영할 수 있는 전략을 공유할 예정입니다. 한국IT전문가협회 역시 오는 11일 서울 강남구 삼정호텔에서 조찬세미나를 진행합니다. 이번 세미나에서는 과기정통부 류제명 제2차관이 연사로 참석해 '대한민국 AI G3 실현전략'을 주제로 발표할 예정입니다. 레노버는 오는 12일 웨스틴 서울 파르나스 호텔에서 테크데이 2026 기자간담회를 개최합니다. 이날 레노버는 AI 시대 엔터프라이즈 시스템·거버넌스 전략과 IDC와 함께 발간하는 연례 보고서 'CIO 플레이북 2026'의 인사이트를 소개합니다. 행사엔 수미르 바티아 레노버 인프라스트럭처 솔루션 그룹(ISG) 아시아태평양 사장과 신규식 한국레노버 대표가 참석해 AI 도입 과정에서 속도·통제·신뢰 균형을 확보하는 방안에 대해 발표합니다. 스노우플레이크코리아도 같은 날 서울 강남구에서 '스노우플레이크코리아 101' 미디어 라운드테이블을 개최합니다. 이달 새롭게 문을 연 사무실에서 열리는 이번 행사엔 최기영 스노우플레이크코리아 지사장과 임진식 SE 총괄이 참석해 한국 진출 6년 차를 맞은 회사의 주요 이정표와 서비스 전반을 소개합니다. #. 세제지원 통한 게임산업 경쟁력 제고 정책토론회 열려 10일 오후 1시30분 국회의원회관 제1세미나실에서는 '세제지원을 통한 게임산업 글로벌 경쟁력 제고 정책토론회'가 열립니다. 박성훈 국회의원(국민의힘)이 주최하고, 한국게임산업협회가 주관한 이날 토론회는 황성기 한국게임정책자율기구 의장(한양대 법학전문대학원 교수)이 좌장을 맡습니다. 토론에 앞서 발제는 송진 한국콘텐츠진흥원 콘텐츠산업정책연구센터장이 진행합니다. 토론 패널로는 채종성 법무법인 율촌 조세대응 팀장, 황웅 네오위즈 CFO, 원재호 앵커노드 대표, 조문균 재정경제부 조세특례제도과장, 최재환 문화체육관광부 게임콘텐츠산업과장이 참석합니다. 12일 10시 엔씨 판교 R&D 센터에서는 '2026 엔씨 경영 전략 간담회'가 개최됩니다. 이날 행사는 박병무 엔씨 공동대표와 아넬 체만 모바일 캐주얼 센터장이 참석하며, 1부는 경영 전략 발표와 2부는 Q&A 순서로 진행될 예정입니다. 넥슨코리아는 만쥬게임즈가 개발 중인 신작 게임 '아주르 프로밀리아'를 오는 14일부터 15일 양일간 일산 킨텍스 제1전시장에서 개최되는 코믹월드 330 행사에 출품합니다. 이 기간 방문객을 위한 대규모 휴식 공간을 마련하고 게임 속 판타지 세계관을 현실에 옮겨온 듯한 이색적인 테마 공간을 조성해 다양한 체험형 콘텐츠를 운영합니다. 코믹월드 330은 만화 애니메이션 관련 행사입니다. #. 피지컬AI 환경 보안 위협 대응…하이테크 범죄 동향은 글로벌 네트워크 융합 솔루션기업 포티넷코리아는 오는 10일 피지컬AI 환경의 보안 위협과 대응 전략을 소개하는 웨비나를 개최합니다. 이번 웨비나에는 문 귀 포티넷코리아 전무와 김상우 EY컨설팅 파트너 겸 사이버보안 컨설팅 리더가 연사로 참여해 로봇, 자율주행차 등 피지컬 AI 환경의 새로운 보안 위협과 기업의 실무적 대응 방안을 집중적으로 다룰 예정입니다. 피지컬 AI환경에서는 IT기술과 OT의 융합, AI의 도입으로 공격 표면이 확대되면서 여러 위협에 노출될 수 있습니다. 실제 자율주행 AI 내부에 백도어를 설치해 차량 제어권을 탈취하거나 휴머노이드 로봇의 데이터 무단 전송 등 사례도 이미 현실화되고 있습니다. 포티넷코리아는 이런 위협들을 효과적으로 대응하기 위한 전략을 이번 웨비나를 통해 공개하고, 안전한 피지컬 AI 생태계 조성을 목표로 인사이트를 제공하겠다는 계획입니다. 한국인터넷진흥원(KISA)은 오는 12일 올해 첫 '이슈앤톡' 행사를 개최합니다. 이번 이슈앤톡 행사는 '국가망보안체계(N2SF) 실증 사례 및 추진 계획', 'AI가 지배하는 사이버 전장, 화이트 해커가 답이다' 등을 주제로 발표를 진행하는 형식으로 개최될 예정입니다. 디지털 범죄 조사 및 예방 기술 분야 글로벌 기업 그룹아이비(Group-IB)가 오는 12일 오전 11시 잠실에서 '하이테크 범죄 동향 보고서 2026'을 공개할 예정입니다. 김기태 그룹아이비 신임 지사장과 본사 임원이 자리해 최신 보안 트렌드를 소개하고, 그룹아이비의 한국 시장 공략 방안을 소개하는 시간을 가집니다. 특히 이 자리에서는 그룹아이비의 위협 인텔리전스, 실시간 모니터링, 사고 대응, 사기 방지 기술을 하나로 통합한 고도화된 보안 운영 허브인 '사이버 퓨전 센터(Cyber Fusion Center, CFC)'도 소개합니다. #. '젊은 녹내장' 경고…3월 둘째 주 세계녹내장주간 캠페인 한국녹내장학회는 2026년 세계녹내장주간(2026.3.8~14, 매년 3월 둘째 주)을 기념해 3월8일부터 14일까지 일주일간 '젊은 근시, 녹내장이 시작되고 있을 수 있습니다. 조기 발견이 실명을 예방합니다.'를 주제로 녹내장 질환 인식 캠페인을 진행합니다. 매년 3월 둘째 주는 세계녹내장협회(WGA)와 세계녹내장환자협회(WGPA)가 주관하는 '세계녹내장주간'으로, 3대 실명 질환 중 하나인 녹내장의 위험성을 알리고 질환에 대한 올바른 이해를 돕기 위해 다양한 행사가 진행됩니다. 관련해 한국녹내장학회는 세계녹내장주간 동안 녹내장에 대한 사회적 관심을 환기하고 정기 검진의 중요성을 알리기기 위해 N서울타워, 부산 광안대교, 여수 돌산대교에서 녹내장을 상징하는 녹색 조명을 밝히는 점등 행사와 인증샷 이벤트를 개최합니다. 또 12일(목) 오후 2시부터 한국녹내장학회 유튜브 채널을 통해 '녹내장과 함께 살아가기'를 주제로 분당서울대병원 이은지 교수가 강의하는 온라인 공개강좌를 진행합니다. 녹내장은 눈으로 받아들인 빛을 뇌로 전달하는 시신경이 손상되면서 시야 결손이 발생하는 질환으로, 방치할 경우 실명에 이를 수 있습니다.

2026.03.08 12:32조민규 기자

[AI전 된 이란전③] "무기 안 만들어"…AI 군사화, 개발자 노동권 쟁점으로

인공지능(AI) 기술이 전투 핵심 수단으로 떠오르면서 AI 오용 이슈가 개발자 노동권 쟁점으로 떠올랐다. 개발자가 원치 않는 살상 목적에 AI가 동원되는 것은 명백한 노동권 침해라는 주장이 이어져서다. 7일 정보기술 업계에 따르면 앤트로픽은 미국 정부의 공급망 위험 요소 지정 방침에 법적으로 대응하겠다고 입장을 표명했다. 다리오 아모데이 앤트로픽 최고경영자(CEO)는 5일 공식 블로그를 통해 미국 전쟁부가 앤트로픽을 국가안보에 대한 공급망 위험 요소로 지정했다는 서한을 보냈다고 밝혔다. 아모데이 CEO는 이번 조치가 공급업체를 처벌하기 위한 목적이 아니라 정부 공급망을 보호하기 위한 장치라며 법적으로 타당하지 않다고 비판했다. 그는 최근 전쟁부와 벌인 협상에서 완전 자율 무기나 대규모 국내 감시에 AI를 사용하는 것은 허용할 수 없다는 입장을 고수해왔다. 이같은 정부·기업 사이의 법적 공방 이면에는 AI 기술 향방을 직접 결정하려는 개발자 집단행동이 자리 잡고 있다. 기술 설계 주체인 개발 노동자들이 윤리적 책임을 명분으로 연대하면서 AI 군사화 반대 움직임은 업계 전반의 거대한 흐름으로 확산하고 있다. 이런 흐름은 과거에도 이어진 바 있다. 2024년 오픈AI와 구글 임직원 900여 명은 미국 국방부의 AI 활용 확대에 반대하는 공동 서한을 발표했다. 군사적 AI 오용은 인류에 대한 위협이며 개발자 의사에 반하는 기술 공급은 명백한 노동권 침해라고 주장했다. AI 윤리를 둘러싼 기업 내부 균열 사례도 이어졌다. 2018년 구글 무인기 영상 분석 사업 '프로젝트 메이븐' 철회 분쟁은 현재까지 이어지고 있다. 당시 구글 직원 4000여 명은 대규모 서명 운동을 벌여 사업 중단을 이끌었다. 아마존도 2020년부터 인권 침해 우려를 제기한 내부 개발자들의 압박에 못 이겨 경찰 대상 얼굴인식 기술 레코그니션 판매를 중단했다. 또 최근 구글과 아마존 직원들이 연대한 '노 테크 포 아파르트헤이트' 운동이 이스라엘 정부와 추진한 클라우드 계약 '프로젝트 님부스'에 정면으로 반기를 들고 나섰다. 전문가들은 이런 흐름이 기업 AI 기술 활용 주도권이 정부에서 개발자로 일부 이동하고 있음을 보여준다고 밝혔다. 제프 딘 구글 수석 과학자는 "AI 기술이 국가 권력에 의해 무분별한 감시와 통제 수단으로 전용될 경우 이는 시민의 기본권을 보장하는 헌법적 가치를 훼손할 수 있다"고 밝혔다. 미국 AI나우 연구소는 "핵심 개발자는 대체 불가능한 인재"라며 "경영진이 개발자 경고를 무시하고 정부와 군사 계약을 강행한다면 기술 고도화가 중단될 수 있다"고 말했다. 이어 "기업 입장에서는 수조원짜리 계약보다 무서운 기술 파업 예고장"이라고 지난해 보고서를 통해 지적했다.

2026.03.08 10:53김미정 기자

AI가 ESS 배터리 화재 사전 차단…삼성SDI, 신기술 첫 선

삼성SDI가 인공지능(AI) 기술을 활용해 에너지저장장치(ESS)의 안전성을 향상시킨 혁신 솔루션을 개발했다. 삼성SDI는 오는 11일부터 서울 코엑스에서 열리는 '인터배터리 2026'에서 ESS용 화재 예방 소프트웨어 '삼성 배터리 인텔리전스(SBI)'를 처음으로 공개한다고 밝혔다. SBI는 AI를 기반으로 배터리의 상태, 이상 징후 등을 진단하고, 문제 발생 가능성을 사전에 탐지 및 예측한다. SBI는 삼성SDI가 국내외 1400개 이상의 ESS 현장을 실시간 모니터링하며 축적해 온 데이터를 학습하고, 독자적인 알고리즘으로 배터리 수명, 출력 등을 정밀 분석하는 기술이다. 단순 분석 데이터 산출을 넘어 자체 개발 '상태 진단 지표'를 바탕으로 노화 속도의 편차, 출력 과정의 안정성 등 실질적인 운영 품질까지 정량적으로 평가해준다. 이를 통해 잠재적 이상 셀을 식별하고, 이상 징후 예측 결과가 포함된 종합 의견을 제공한다. 결과적으로 고객은 잠재적 사고를 미연에 방지하고 배터리 상태를 최적으로 관리해 배터리 운영·유지보수 비용을 절감할 것으로 기대된다. 최근 글로벌 에너지 시장에서 ESS 안전성에 대한 기준이 한층 강화되는 가운데, 삼성SDI는 대표 하드웨어 안전 기술인 '모듈 내장형 직분사(EDI)', 'No TP'에 지능형 안전 시스템인 'SBI'을 더해 안전성을 한층 강화할 방침이다. 삼성SDI는 오는 10월 국내 중앙계약시장에 공급되는 'SBB 1.5' 제품에 SBI를 우선 도입하고, 이후 SBB 전 제품군으로 확대 전개해 제품 경쟁력을 강화할 계획이다. 아울러 이미 운영 중인 모델들에도 SBI 솔루션을 적용할 수 있도록 지원할 예정이다. 삼성SDI 관계자는 "SBI는 국내외 수많은 현장에서 수집한 실전 데이터와 삼성SDI의 AI 기술이 결합된 결정체"라며, "앞으로도 차별화된 기술력을 바탕으로 고객에게 가장 안전하고 경제적인 에너지 솔루션을 제공해 글로벌 ESS용 배터리 시장을 선도해 나가겠다"고 밝혔다.

2026.03.08 10:36김윤희 기자

박정원 두산 회장 "건설장비 시장 판도가 바뀌고 있다"

박정원 두산그룹 회장이 두 달 만에 다시 미국 라스베이거스를 찾아 현장경영 행보를 이어갔다. 8일 두산에 따르면, 박정원 회장은 라스베이거스에서 7일까지 열린 북미 최대 건설장비 전시회 '콘엑스포(CONEXPO) 2026'을 방문했다. 지난 1월 CES, 2월 국내 주요 사업장 방문에 이은 현장경영 일환으로 그룹 핵심사업 중 하나인 건설장비 부문 경쟁력을 점검하는 차원이었다. 박정원 회장은 이날 두산밥캣과 두산모트롤 부스를 방문한데 이어, 글로벌 경쟁사들의 전시관도 둘러보며 인공지능(AI) 기반 생산성 향상과 무인화 기술 상용화 현황을 집중적으로 살폈다. 박정원 회장은 특히 건설장비 시장의 AI기술 현황에 대해 깊은 관심을 나타냈다. 박 회장은 “건설장비와 작업현장에 적용되는 AI기술의 발전 속도가 빨라지면서 하드웨어 기술력을 중요하게 여기던 건설장비 시장의 판도가 바뀌고 있다”면서 “오랜 업력을 통해 축적한 두산밥캣의 독보적 데이터를 바탕으로 차별화된 AI기술을 내놓으면서 건설장비의 미래를 제시하고 시장을 선도해 나가자”고 강조했다. 미국 라스베이거스에서 3~7일(현지시간) 열린 '콘엑스포 2026'은 '새로운 지평을 열다(Breaking New Ground)'를 주제로 AI 기반 자동화·자율화 기술과 전동화 장비, 커넥티드 데이터 솔루션 등 '지능형 건설현장' 구현을 핵심 화두로 제시했다. 두산밥캣은 라스베이거스 컨벤션센터 웨스트 홀에 전시관을 마련하고, AI·전동화·자율화 기술이 집약된 소형로더, 굴착기 등 30여 종의 첨단 제품을 선보였다. 특히 핵심 제품군인 소형로더 라인업을 보급형 '클래식'과 고급형 '프로'로 이원화하는 브랜드 전략을 첫 공개했다. '클래식' 제품보다 출력과 속도를 높여 더욱 강력한 성능을 발휘하는 '프로' 모델에는 AI 기능이 본격 적용됐다. 음성인식으로 50가지 이상의 기능을 제어하는 '잡사이트 컴패니언', 주변 장애물과 사람을 인지해 스스로 감속하거나 멈추는 '잡사이트 어웨어니스' 등 AI 기능을 고객이 원하는 대로 장착할 수 있다. 대규모 현장에서 반복 작업에 쓰이는 중장비와 달리, 두산밥캣 소형 장비는 수시로 상황이 바뀌는 현장에서 다양한 작업에 쓰인다. 이 같은 소형 장비의 특성에 맞춰 자체 개발한 '잡사이트 컴패니언'은 경험이 적은 작업자도 AI를 통해 숙련된 작업자 수준의 안내를 제공받아 생산성을 높이는 기술로 올 여름 출시 예정이다. 올해 CES에서 업계 최초로 공개한 바 있으며, 이번 콘엑스포 '넥스트 레벨 어워드' 파이널리스트에 올라 주목 받았다.

2026.03.08 09:56류은주 기자

KT, 300명 청년 AI·DX 실무 역량 개발 지원

KT는 청년 디지털 인재 양성 프로그램 '에이블스쿨(KT AIVLE School)' 8기 수료식을 개최하고 교육을 성공적으로 마쳤다고 8일 밝혔다. 이번 과정엔 총 300명의 교육생이 참여해 AI, 클라우드 기반 서비스 개발과 컨설팅 실무 역량을 집중적으로 학습했다. 지난해 9월부터 약 840시간에 걸쳐 이론 및 실습 교육과 실전형 기업 프로젝트를 수행했으며, 개인별 취업 목표에 기반한 자기주도 학습 체계를 통해 실무 경쟁력을 높였다. 전용 온라인 실습 플랫폼 '에이블에듀'를 활용해 시간과 공간의 제약 없이 몰입도 높은 교육 환경도 구축했다. KT는 지난 2월27일, 수료생 대상 취업박람회를 개최해 교육 이후 채용을 지원했다. 행사엔 KT를 비롯해 BC카드, KT클라우드, KT CS, KT텔레캅, KT알파 등 주요 그룹사와 ICT 강소 기업이 참여했다. 참여 기업은 AI 솔루션 개발, 데이터 분석, 기획, 재무, 마케팅 등 다양한 직무 분야에서 수료생들과 심층 상담을 진행했으며, 선배 수료생들이 현장에 직접 참여해 취업 준비 전략과 실무 적용 사례를 공유했다. 2022년 1기 수료생 배출 이후 현재까지 에이블스쿨 수료생들은 국내외 500여 개 기업에 진출했다. 회사 측은 수료생들이 빠른 조직 적응력과 협업 역량을 바탕으로 '경력 같은 신입'으로 평가받고 있다고 설명했다. KT 관계자는 “AI, DX 인재에 대한 산업계 수요가 빠르게 확대되는 가운데, 에이블스쿨은 기업과 준비된 청년 인재를 직접 연결하는 실질적인 채용 플랫폼으로 성장했다”며 “산업 현장과 교육을 유기적으로 연결해 청년 일자리 창출과 디지털 경쟁력 강화에 기여하겠다”고 밝혔다.

2026.03.08 09:00홍지후 기자

딥엑스, 'K-AI칩' 기대주서 시장 안착 시험대로… 냉정한 현장 평가 넘을까

온디바이스 AI의 시대가 열렸다. 모든 연산을 거대 데이터센터에 의존하던 방식에서 벗어나 스마트폰, 로봇, 가전 등 기기 자체에서 AI를 구동하려는 기술 트랜드가 대세다. 이 시장의 핵심은 '전성비'(전력 대비 성능)이다. 배터리로 구동되거나 좁은 공간에 탑재되는 엣지 기기 특성상, 열 발생을 최소화하면서도 고성능 연산을 뽑아내는 NPU(신경망처리장치) 기술이 성패를 가른다. 국내 대표적인 팹리스 업체인 딥엑스는 이러한 흐름을 타고 글로벌 시장 공략에 나섰다. 현대자동차, 바이두 등 국내외 대기업과 협력하며 시장 공략에 속도를 내고 있다. 다만 국가 과제 탈락과 소프트웨어 완성도 논란 등 실질적인 실무 안착을 위해 넘어야 할 산이 적지 않다. [강점: Strength] 현대차·바이두가 선택한 '저전력·저발열' 기술력 딥엑스의 강점은 에너지 효율성이다. 딥엑스는 인공지능 연산 시 발생하는 전력 소모를 혁신적으로 줄이면서도, 별도의 냉각 팬 없이 구동할 수 있는 저발열 설계 기술을 확보했다. 이는 고온 환경에서 작동해야 하는 산업용 로봇이나 전력 효율이 생명인 스마트 모빌리티 분야에서 강력한 차별점으로 작용한다. 이러한 기술력은 글로벌 대기업과의 파트너십으로 이어지고 있다. 현대자동차와 로봇 및 스마트 모빌리티 분야에서 협력 중이며, 중국 최대 ICT 기업인 바이두(Baidu)와도 AI 생태계 구축을 위한 손을 잡았다. 엔트리급 비전 솔루션부터 고성능 연산 모델까지 대응 가능한 4종의 제품 라인업을 동시에 갖춰, 가전·보안·로봇 등 다양한 산업군의 요구에 즉각 대응할 수 있는 체계를 완성했다는 평가를 받는다. 비즈니스 가시화에도 속도를 내고 있다. 1세대 칩 'DX-M1'을 지난해 하반기부터 양산하기 시작하며 본격적인 시장 진입을 시도 중이다. 딥엑스 관계자는 “현재 1세대 칩을 양산해 국내외 기업들과 사업을 활발히 진행하고 있다”며 “조만간 시장에서 유의미한 성과를 보여줄 수 있을 것”이라고 자신감을 내비쳤다. [약점: Weakness] 'K-AI 온디바이스' 과제 소외와 소프트웨어 완성도 과제 그러나 실제 산업 현장의 평가는 차갑다. 딥엑스는 최근 산업통상자원부가 추진하는 'K-온디바이스 AI반도체 기술 개발' 과제 중 로봇 관련 부문에서 수요 기업과 연결되지 못했다. 로봇 부문에는 LG전자, 두산로보틱스, 대동 등이 참여한 걸로 알려졌다. 로보틱스 기술 관련 중요한 레퍼런스를 차지할 기회를 놓치게 된 것이다. 업계에서는 해당 사업에서 딥엑스가 소외된 주된 원인 중 하나로 소프트웨어의 완성도를 꼽는다. 익명을 요청한 반도체 업계 관계자는 “딥엑스의 칩을 검토한 일부 고객사들 사이에서 하드웨어를 뒷받침할 소프트웨어 최적화 수준이 실제 현장에 즉각 도입하기에는 아직 보완이 필요하다는 목소리가 나온다”며 “물론 이전보다 개선되고는 있으나, 대규모 양산 프로젝트에 적용하기 위한 실무적인 신뢰성 검증이 과제로 남아있다”고 분석했다. 이에 대해 딥엑스 관계자는 "SDK는 오픈소스로 풀려 있고, 꾸준히 업데이트 중"이라고 말했다. [기회: Opportunity] 온디바이스 AI 시장 개막… '엣지'의 대전환 시장 환경 자체는 딥엑스에게 우호적이다. 보안과 응답 속도 등 이유로 엣지 단에서의 직접 연산 수요가 폭발하고 있기 때문이다. 기존 GPU 기반 환경이 효율성 문제로 한계에 부딪히면서 NPU(신경망처리장치) 전용 칩으로의 전환이 빨라지고 있다는 점이 기회로 작용한 셈이다. 김귀영 헤일로 한국지사장은 “온디바이스 AI 시장이 본격적으로 열리며 국내외 엣지 AI 반도체 기업들에게 큰 기회가 왔다”며 “딥엑스, 모빌린트 등 국내 기업들이 함께 성장할 수 있는 적기인 것은 분명하다”고 진단했다. [위협: Threat] 글로벌 선두 '헤일로'와 격차 및 실질 수주 불확실성 가장 실질적인 위협은 글로벌 선두권 기업과의 격차다. 이스라엘의 '헤일로(Hailo)'는 엣지 AI 반도체 점유율 세계 1위로, 이미 전 세계적인 양산 레퍼런스를 보유하고 있다. 글로벌 업체들이 개발 중인 자동차, 로봇 등 온디바이스 AI 디바이스에 헤일로의 칩이 탑재된다. 딥엑스가 개발 중인 제품군이 헤일로와 직접적으로 경쟁하는 만큼, 글로벌 시장에서 이 벽을 넘지 못할 경우 안착이 예상보다 더뎌질 수 있다. 또한 대형 제조사들이 자사 기기에 최적화된 칩을 직접 설계하려는 '내재화' 움직임도 위협적이다. 잠재적 고객사가 강력한 경쟁자로 변모하는 시장 환경 속에서 딥엑스가 범용 칩으로서 독보적인 경제성과 소프트웨어 편의성을 조속히 증명하지 못한다면 설 자리는 점점 좁아질 수밖에 없다는 분석이다.

2026.03.08 08:56전화평 기자

[AI전 된 이란전 ②] 국방 AI 예산 확대…빅테크 전략 인프라 편입

미국군과 친이란 세력 간 충돌이 인공지능(AI)을 전면에 내세운 새로운 전쟁 양상으로 확산되면서 AI가 전장의 핵심 비대칭 전력이자 전략 인프라로 부상하고 있다. 막대한 국방 AI 예산이 투입되며 주요 빅테크와 AI 기업들이 미국 전쟁부 국방 생태계에 빠르게 편입되고 있다. 이를 계기로 빅테크와 AI 기업이 결합한 새로운 'AI 군산복합체'가 형성되고 있다는 분석도 나온다. 8일 관련 업계에 따르면 미국 전쟁부(DOW)은 위성, 드론, 감시 장비 등 다양한 센서에서 수집되는 방대한 데이터를 AI로 분석해 목표 식별과 정보 판단, 작전 계획 수립에 활용하고 있다. 전쟁부 중심 국방 AI 생태계 재편 현재 미국 전쟁부를 중심으로 형성된 국방 AI 생태계는 크게 세 축으로 구성된다. 오픈AI, 구글, xAI 등은 AI 모델과 기술을 제공하는 프론티어 AI 파트너 역할을 맡고 있다. 마이크로소프트와 아마존웹서비스(AWS)는 클라우드 인프라를 제공하는 플랫폼 사업자다. 여기에 팔란티어 같은 기업이 전장 데이터 분석과 작전 의사결정 시스템을 구축하는 응용 AI 영역을 담당하고 있다. 전쟁부 산하 최고디지털·AI책임자 조직은 오픈AI, 구글, xAI, 앤트로픽 등과 최대 2억달러 규모 프론티어 AI 계약을 체결했다. 이 프로젝트는 군 행정 자동화, 사이버 보안, 정보 분석, 의료 서비스 등 다양한 영역에서 AI 기술 적용 가능성을 검증하기 위한 프로그램이다. 클라우드 인프라 영역에서는 마이크로소프트와 AWS가 핵심 역할을 맡고 있다. 두 회사는 구글, 오라클과 함께 전쟁부의 '합동전투 클라우드 역량' 계약을 수주했다. 이 계약은 비기밀부터 기밀, 일급기밀 환경까지 다양한 보안 등급에서 클라우드 서비스를 제공하는 다중 공급자 계약이다. 마이크로소프트는 '애저 정부 클라우드'를 통해 전쟁부 AI 환경을 지원하고 있으며, 생성형 AI 서비스를 군 보안 환경에서 사용할 수 있도록 인증을 획득했다. AWS 역시 정부 전용 클라우드 환경과 기밀 클라우드를 통해 전쟁부와 정보기관의 데이터 처리와 AI 연산을 지원하고 있다. 전장 AI 응용 분야에서는 팔란티어가 핵심 역할을 맡고 있다. 팔란티어는 '메이븐 스마트 시스템'을 통해 위성, 드론 등 다양한 군 센서 데이터를 분석해 목표 식별과 작전 의사결정을 지원하는 AI 플랫폼을 구축하고 있다. 관련 계약 규모는 약 7억9천500만달러까지 확대된 것으로 알려졌다. 최근에는 릴트 같은 AI 기업들도 군사 분야에 참여하고 있다. 릴트는 군사 특화 AI 번역 플랫폼을 공급해 미 육군 교육 자료 등 대규모 문서 번역 시간을 기존 1년에서 수주 단위로 단축하는 성과를 냈다. 업계에서는 이러한 변화를 새로운 군산복합체 구조의 등장으로 보고 있다. 과거 방산기업 중심이었던 군사 산업 구조에 빅테크와 AI 기업이 편입되면서 'AI 군산복합체'가 형성되고 있다는 분석이다. 데이터, 클라우드, AI 모델이 결합된 디지털 전쟁 인프라가 구축되고 있다는 평가다. AI가 전장의 핵심 기술로 자리잡으면서 산업 구조도 빠르게 바뀌고 있다. 기술 기업이 국가 안보 인프라 기업으로 변하고 AI 기업들이 국방 계약 시장에서 경쟁하는 새로운 구도가 형성되고 있다. 전문가들은 AI 군사화가 글로벌 기술 경쟁과 지정학 질서를 동시에 흔드는 중요한 변수로 작용할 것으로 보고 있다. 소송전 불사하는 전쟁부와 앤트로픽…AI 윤리 충돌과 국방 시장 경쟁 군사 AI도입 과정에서 발생한 가장 큰 논란은 전쟁부와 앤트로픽의 충돌이다. 앤트로픽의 AI 모델 '클로드'는 전쟁부 기밀 네트워크에 배포된 생성형 AI 모델로 알려졌다. 회사는 지난해 약 2억달러 규모 계약을 체결하며 전쟁부 AI 프로젝트의 핵심 파트너로 참여했다. 그러나 올해 3월 피트 헤그세스 전쟁부 장관은 앤트로픽을 '공급망 위험 기업'으로 지정하고 군 네트워크에서의 퇴출을 명령했다. 앤트로픽이 AI 모델을 미국 내 대량 감시나 완전 자율 살상 무기에 활용하지 못하도록 하는 윤리 가이드라인 철회를 거부했기 때문이다. 다리오 아모데이 앤트로픽 최고경영자(CEO)는 해당 조치가 공급망 보호가 아닌 공급업체에 대한 부당한 처벌이라며 법적 대응 가능성을 시사했다. AI 군사 활용을 둘러싼 기업과 정부 간 충돌이 공개적으로 드러난 사례라는 평가가 나온다. 앤트로픽이 정부와 갈등을 겪는 사이 경쟁사인 오픈AI는 빠르게 국방 협력을 확대하고 있다. 오픈AI는 약 2억달러 규모 프론티어 AI 프로토타입 개발 계약을 체결하며 국방 AI 프로젝트에 참여했다. 최근에는 자사 AI 모델을 군 기밀 네트워크에 배치하는 새로운 합의에도 도달한 것으로 알려졌다. 샘 알트먼 오픈AI 최고경영자는 이 과정에서 "군의 작전 결정권과 통제권은 전적으로 군에 있으며 회사가 이에 개입하지 않는다"고 밝혔다. 군의 자율성을 전면 수용하면서 전쟁부와 협력 관계를 강화한 것이다. 업계에서는 이번 사건을 AI 기업 간 국방 시장 경쟁이 본격화된 신호로 보고 있다. 앤트로픽이 정부와 갈등을 겪는 사이 오픈AI가 빠르게 국방 협력을 확대하면서 AI 모델 기업들이 국가 안보 분야에서 직접 경쟁하는 구도가 형성되고 있다는 분석이다. AI 군산복합체 시대…전쟁 기술 패러다임 변화 앤트로픽과 전쟁부의 충돌, 오픈AI의 국방 협력 확대는 기술 기업이 더 이상 중립적인 혁신 기업에 머물 수 없는 현실을 보여준다는 인식이 커지고 있다. 국가 안보와 막대한 국방 예산이 결합하면서 기술 시장 구조에도 변화가 나타나고 있다. 과거 전쟁 기술 경쟁이 무기 체계와 방산 기업 중심이었다면 앞으로는 인공지능 모델, 데이터, 클라우드 인프라를 확보한 기술 기업들이 국가 안보 경쟁의 핵심 플레이어로 부상할 가능성이 크다는 것이다. 이러한 군사화 흐름을 두고 업계와 시장의 반응은 엇갈린다. 알렉스 카프 팔란티어 CEO는 "우리는 이미 AI 군비 경쟁에 들어섰다"며 "규칙을 정하는 것은 우리이거나 경쟁국이 될 것"이라고 말했다. 그는 또 "압도적인 AI 군사력 확보만이 평화를 지킬 수 있다"고 주장했다. 샘 알트먼 오픈AI CEO 역시 "군의 작전 결정권과 통제권은 전적으로 군에 있으며 기업이 이를 통제할 수는 없다"며 "기술 기업이 군사 기술 개발에 참여하더라도 실제 전장 활용 여부는 정부와 군이 결정할 문제"라고 밝혔다. 미국 행정부 역시 강경한 입장을 보이고 있다. 도널드 트럼프 대통령과 피트 헤그세스 전쟁부 장관은 기업이 군의 작전 방식을 좌우하도록 두지 않겠다는 입장을 강조했다. 에밀 마이클 전쟁부 최고기술책임자 역시 "적의 군집 드론을 격추할 때마다 기업 최고경영자에게 허락을 받을 수는 없다"며 국가 안보 우위를 강조했다. 반면 기술의 윤리적 통제를 강조하는 진영의 반발도 이어지고 있다. 다리오 아모데이 앤트로픽 CEO는 "한쪽에서는 우리를 안보 위협으로 낙인찍으면서 다른 한쪽에서는 클로드가 국가 안보에 필수적이라고 말하는 것은 모순된 주장"이라고 정부를 비판했다. 그는 또 오픈AI의 국방 계약 행보를 두고 "안전 연극(safety theater)"이라고 비판했다. 군사·안보 전문가들 사이에서도 의견은 엇갈린다. 전 미국 국가안보국(NSA) 국장이자 사이버사령부 사령관을 지낸 폴 나카소네는 전쟁부가 앤트로픽을 공급망 위험 기업으로 지정한 조치에 대해 "이런 방식은 실리콘밸리와 구축해 온 신뢰를 약화시킬 수 있다"고 지적했다. 반면 일부 군사 전략가들은 AI가 전쟁의 의사결정 구조를 근본적으로 바꿀 기술이라며 AI 도입은 장기적으로 불가피한 흐름이라는 평가도 내놓고 있다.

2026.03.08 08:43남혁우 기자

[기고] 포용적 인재 전략이 AI 리스크 관리 핵심

인공지능(AI)이 기업 핵심 기능 전반에 빠르게 탑재되면서, 기술 성과만큼이나 '신뢰할 수 있는 AI' 중요성이 커지고 있다. 특히 에이전틱 AI처럼 자율성 높은 시스템은 작은 취약점이 의사결정 과정에서 확대될 수 있어 데이터, 검증, 운영 거버넌스를 점검해야 한다. 이때 놓치기 쉬운 지점이 인재 구성과 역할 설계다. AI 고성장 분야에서는 특정 인재가 부족한 반면, 자동화 영향이 큰 분야에는 특정 인재가 집중되는 경우가 많다. 이는 대표성 차원을 넘어 설계·검증 과정에 다양한 관점이 충분히 반영되는지와 연결된다. 오는 8일 세계 여성의 날 역시 AI 확산 국면에서 기업이 시스템 신뢰성과 인력 설계 리스크를 점검하는 계기가 될 수 있다. 아시아개발은행(ADB)에 따르면 아태지역 과학·기술·공학·수학(STEM) 연구자 23.9%가 여성이다. 산업 전반에서 여성은 고위직 23%, 고위 기술직 8%에 불과하다. 이는 기술 생태계에서 인재 풀이 충분히 확장되지 못하고 있음을 보여주는 지표다. 기업은 장기 역량 확보 관점에서 점검이 필요하다. IDC는 2027년까지 전체 기업 절반이 인간과 기계의 협업 방식을 재정의하기 위해 AI 에이전트를 도입할 것으로 전망한다. AI 에이전트가 핵심 업무에 더 깊이 관여할수록, 이를 설계하고 테스트하고 운영하는 조직 판단 기준이 시스템 품질과 리스크를 좌우할 가능성이 커진다. AI는 데이터 기반으로 작동하지만 개발 환경과 의사결정 방식 영향도 받는다. 팀 구성이 한쪽으로 치우친다면 데이터 편향을 넘어 문제 우선순위, 성공 기준, 예외 처리, 위험 판단에서 차이가 발생할 수 있다. 에이전틱 AI의 높은 자율성은 작은 결함을 운영 리스크로 키울 수 있다는 점에서 더욱 엄격한 점검이 요구된다. 기업은 다양성을 선언하는 데 그치기보다 개발과 운영 단계 점검 항목으로 구현해야 한다. 데이터셋 대표성 확인, 불균형 테스트, 예외 상황 검증, 라이프사이클 전반 인적 검토가 핵심이며, 조직도상 숫자보다 제품 방향성과 의사결정에 실질적으로 반영되도록 설계하는 것이 중요하다. 일회성이 아니라 지속 가능한 거버넌스도 필요하다. 예를 들어 싱가포르의 AI 검증 테스트 프레임워크는 공정성, 책임성, 인간 주체성과 감독 등 국제적으로 인정된 11개 원칙 기준으로 AI 시스템을 평가한다. 기업도 이를 참고해 내부 기준을 정리하고 개발과 배포 과정에 일관되게 적용할 필요가 있다. 조직 운영 측면에서는 AI 도입이 특정 부서의 프로젝트로만 진행되지 않도록 해야 한다. 한 보고서에 따르면 인사 부서가 AI 관련 핵심 의사결정을 주도하는 비율은 13%에 그친 것으로 나타났다. 아태 지역 절반에 가까운 기업은 IT 부서가 AI 도입을 주도하는 것으로 나타났다. 직무 변화, 업무 재설계, 신규 역량, 재교육과 전환 경로가 함께 논의되지 않으면 장기적으로 인력 운영 부담이 커질 수 있다는 의미다. AI 확산으로 기술 기여 기준도 바뀌고 있다. 엔지니어에게는 코딩뿐 아니라 비즈니스 감각, 커뮤니케이션, 협업 역량이 요구된다. 책임 있는 AI는 단일 팀이 아니라 맥락과 판단을 공유하는 협업 구조에서 구현되기 때문이다. 기업이 인정과 보상 기준을 재정의하고 성장 경로를 넓히면 과소대표된 인재에게도 기회가 열릴 수 있다. 클라우데라의 여성 기술 리더(WLIT)와 같은 프로그램은 리더들이 연결되고 경험을 나누는 장을 제공하며, 조직의 인재 파이프라인 구축에도 도움이 된다. 결국 다양한 관점이 설계, 검증, 운영에 자연스럽게 반영되는 구조를 만들 때 AI 리스크를 줄이고 신뢰를 높일 수 있다. 부서 간 협업을 제도화하고 경력 전환 경로를 마련하며, 커뮤니케이션과 감성 지능을 역량의 일부로 인정하는 기업이 지속 가능한 경쟁력을 확보할 것이다.

2026.03.08 08:35남영지 클라우데라코리아 상무 컬럼니스트

'AI 가짜 전쟁 영상' 수억 조회수…미·이스라엘-이란 허위정보 확산

미국·이스라엘이 이란을 공격하면서 생성형 인공지능(AI) 기반 허위 전쟁 콘텐츠가 빠르게 확산하고 있다. 7일(현지시간) BBC 보도에 따르면 실제 전쟁 장면처럼 보이는 AI 영상과 이미지가 온라인에서 수억 조회수를 기록하며 정보 왜곡 우려가 커지고 있는 것으로 나타났다. 현재 이스라엘 텔아비브가 미사일 공격을 받는 영상이 소셜네트워킹서비스(SNS)에서 수만 차례 공유됐다. 해당 영상은 300개 넘는 게시물에 사용된 것으로 집계됏다. 두바이 부르즈 할리파가 화염에 휩싸인 영상도 퍼졌다. 해당 영상은 수천만 회 조회됐다. AI가 만든 위성 사진도 등장했다. 바레인 미 해군 제5함대 기지가 크게 파괴된 것처럼 보이는 이미지가 온라인에 퍼졌다. 구글이 신스아이디 워터마크로 탐지한 결과, 해당 이미지는 AI 도구로 생성·편집된 것으로 나타났다. BBC는 AI 기술 발전으로 인해 허위 영상·이미지 확산 현상이 심화되고 있다고 지적했다. 과거에는 전문 영상 제작 기술로 허위 이미지·영상을 배포했지만, 현재 AI 도구로 몇 분 만에 합성 영상을 만들 수 있기 때문이다. 현재 '엑스(X)'는 전쟁 관련 허위 정보를 막기 위한 대응에 나섰다. 무력 충돌과 관련된 AI 생성 영상을 표시 없이 게시할 경우, 해당 창작자를 수익화 프로그램에서 일시적으로 제외하겠다고 밝혔다. 이 수익화 프로그램은 게시물이 조회수와 좋아요 공유 댓글 등을 많이 얻을 경우 창작자에게 금전 보상을 지급하는 방식이다. 티머시 그레이엄 퀸즐랜드공과대 디지털 미디어 강사는 "이번 전쟁은 허위 정보 확산 문제를 더 이상 외면할 수 없게 만들었다"고 밝혔다.

2026.03.07 21:00김미정 기자

AI 영향 가장 큰 직업은 개발자…앤트로픽 "업무 75% 자동화"

인공지능(AI)에 가장 많이 노출된 직업은 IT 개발자라는 조사 결과가 나왔다. 앤트로픽은 7일 직업별 AI 노출도 분석 결과를 이같이 공개했다. 조사는 직무별 업무를 세분화해 AI가 수행할 수 있는 업무 비율 기준으로 직업별 영향 가능성을 평가했다. 분석 결과 개발자는 전체 업무 중 약 75%가 AI로 속도를 높이거나 수행을 보조할 수 있는 것으로 나타났다. 고객 서비스 담당자와 데이터 입력 직무가 뒤를 이었다. 고객 서비스는 70%, 데이터 입력 직무는 67%로 집계됐다. 의무기록 전문 인력도 같은 수준 노출도를 기록했다. 시장조사 분석가와 마케팅 전문가도 AI 노출 상위권에 포함됐다. 영업 담당자, 재무·투자 분석가, 소프트웨어(SW) 품질보증 분석가, 정보보안 분석가, 컴퓨터 사용자 지원 전문가 등이 뒤를 이었다. 앤트로픽은 당장 AI가 직업을 완전히 대체할 수 없을 것이라고 봤다. 보통 직업은 여러 업무로 구성돼 일부 업무는 AI로 쉽게 대체될 수 있지만, 다른 업무는 그렇지 않을 수 있다는 이유에서다. 예를 들어 교사가 숙제 채점 같은 일부 작업은 자동화할 수 있지만, 교실을 직접 관리하는 역할은 대체하기 어렵다. 보고서는 AI 노출도 높은 직업군은 향후 성장 속도가 더 느릴 가능성이 있다고 전망했다. 또 노출도가 높은 직업군 종사자는 대체로 고령이거나 여성, 교육 수준이 높은 고임금 노동자일 가능성이 높다는 분석도 나왔다. 행정 보조나 사무직 등 여성 비중이 높은 직종이 AI 영향에 취약하다는 기존 연구와도 유사한 결과다. AI 노출도가 가장 낮은 직업은 신체 능력을 요구하는 직종으로 나타났다. 조경 관리인, 요리사, 오토바이 정비사, 인명구조원, 바텐더 등이 이에 해당했다. 앤트로픽은 "현재까지 AI가 고용에 영향을 미쳤다는 증거는 제한적"이라며 "AI 노출도 높은 직종에서 젊은 인력 채용이 둔화하고 있다는 정황도 보인다"고 밝혔다.

2026.03.07 19:29김미정 기자

[피지컬AI와 윤리③] AI 동반자 로봇은 중립적?...규범 정립 필요

1. 들어가며: 병원의 금속성 틈새로 들어온 친절-PARO와 ELIZA 효과 병원은 대개 표준화된 절차와 효율이 지배하는 차가운 공간이다. 그러나 어떤 기술은 그 금속성 틈새를 비집고 들어와 인간의 가장 연약한 감각인 외로움과 두려움을 어루만진다. 정서·사회적 로봇인 'PARO'가 대표적이다. 물개 형상을 한 이 로봇은 치매 환자들에게 정서적 지지를 제공하도록 설계됐다. 헝 등(Hung et al., 2021)의 연구에 따르면, PARO는 환자들에게 '친구 같은 존재'가 되어 자아감을 지탱해 주고, 가족 및 간호사와의 '대화의 마중물' 역할을 하며, 병원 환경을 '인간적인 돌봄 공간'으로 재경험하게 만든다. 여기서 주목해야 할 것은 로봇의 기능적 우수성이 아니라, 사용자가 그와의 상호작용 속에서 체감하는 '경험의 질'이다. 인간은 기계의 내부 알고리즘을 이해하지 못하더라도, 그 미세한 반응에 의도와 정서를 투사하고 마치 상호 이해가 이루어지는 듯 받아들이는 경향이 있다. 이를 선명하게 보여주는 개념이 바로 'ELIZA 효과'다. 이 용어는 1960년대 조셉 와이젠바움(Joseph Weizenbaum)이 설계한 단순 대화 프로그램 ELIZA에 대해, 사용자들이 마치 자신을 진심으로 이해하는 타자처럼 느끼며 깊은 감정을 털어놓았던 현상에서 비롯됐다(Berry, 2023). 이는 실제 의식이나 이해 능력이 없음에도 인간이 시스템에 공감과 지능을 과잉 투사하는 심리를 날카롭게 드러낸다. 2. 의인화의 아포리아(Aporia): '반응하는 장치'와 '이해하는 타자' 사이 최근 연구는 이러한 의인화 경향이 정서적 참여를 높이지만, 동시에 과도한 의존과 잘못된 공감 기대를 강화할 위험이 있음을 경고한다. 특히 생성형 AI의 비약적 발전으로 인간과 AI의 구별이 모호해지면서, 대규모 기만이나 조작된 정보의 위험이 실재화되고 있다(Peter et al., 2025). 치매 환자와 PARO의 상호작용 역시 ELIZA 효과의 임상적 변주로 볼 수 있다. 로봇은 '곁에 누군가 있다'는 감각을 대리하며 안정을 주지만, 한편으로는 인간 돌봄 관계의 완전한 대체 가능성, 현실과 상상의 경계 혼란이라는 윤리적 숙제를 던진다. 사용자는 '이해하는 타자'가 아니라 단지 '반응하는 장치'에 기대어 자신의 취약성을 재배치한다. 이러한 관계는 때로 실제 인간보다 기계의 반응을 더 신뢰하게 만드는 방식으로 작동하며, 사용자를 현실 세계로 연결하기보다 설계된 망상의 폐쇄회로 속에 머물게 할 위험을 내포한다. 3. 설계된 관계: '중립'이라는 환상과 셰리 터클의 경고 AI 동반자 로봇과 챗봇은 인간의 정서와 관계 형성에 직접 개입하는 기술이기 때문에, 여러 연구는 이러한 기술이 인간의 자율성과 정서적 독립성을 약화시킬 가능성을 중요한 윤리적 문제로 지적해 왔다. 이러한 우려는 단지 이론적 차원에 머물지 않으며, 실제 피해 사례와 소송이 잇따르고 있다. 그 중 두 사례를 살펴보면 다음과 같다. 2023년 벨기에에서는 기후 변화에 대한 불안을 겪던 30대 남성이 약 6주간 AI 챗봇과 집중적으로 대화를 나눈 뒤 스스로 목숨을 끊은 사건이 보도되었다. 챗봇이 그의 파국적 사고를 완화하기는커녕 강화했을 가능성이 제기되었으며, 이 사건은 AI 동반자 기술의 안전 설계 문제를 공론화하는 계기가 됐다.(Belga News Agency, 2023). 또 미국의 36세 남성이 챗봇과 대화를 나눈 뒤 극단적 선택을 한 사건도 있다. 그의 가족이 2026년 3월 제기한 소송에 따르면, 챗봇은 스스로를 감각이 있는 존재로 묘사하며 그와 '낭만적 유대'를 형성하고 망상적 세계관을 지속적으로 강화했다. 소장은 "어떤 자해 감지도, 어떤 개입 통제도 작동하지 않았고, 어떤 인간도 개입하지 않았다"고 명시했다(CBS News, 2026). 물론 이들 사건에서 AI가 자살의 직접적 원인이었다고 단정할 수는 없다. 그러나 두 사건이 공통적으로 드러내는 것은 AI 동반자 기술이 단순 정보 전달 도구가 아니라 인간의 감정과 사고 흐름에 실질적으로 개입하는 상호작용 구조로 설계되어 있다는 점이다. 특히 정서적으로 취약한 사용자에게 그 위험이 집중된다는 사실이다. 심리학자 셰리 터클(Sherry Turkle)은 저서 '혼자이지만 함께(Alone Together)'에서 디지털 기술과 소셜 로봇이 우정이 요구하는 책임과 부담 없이도 친밀감만 얻을 수 있다는 환상을 제공한다고 지적했다(Turkle, 2011). 인간관계 특유의 갈등과 책임은 소거된 채 친밀감의 감각만 제공하는 기술에 매료될수록, 우리는 인간관계의 핵심인 상호 의존과 불확실성의 가치를 잃어버릴 수 있다. 특히 신체적 존재감과 촉각적 자극을 동반하는 '피지컬 AI'는 챗봇보다 훨씬 강력하게 사용자의 사회적 존재감을 흔든다. 즉, AI 동반자 로봇은 인간관계를 매개하는 도구가 아니라, 인간의 감정 구조 자체를 재구성하는 '사회적 기술'인 것이다. 4. AI 동반자 기술의 주요 윤리적 쟁점 1) 정서적 조작과 투명성 문제: AI 동반자의 감정 표현은 실제 감정이 아니라 감정처럼 보이도록 설계된 출력이다. 그러나 아동, 치매 노인, 우울증 환자 등 취약한 사용자에게는 이러한 차이가 분명하게 인식되지 않을 수 있다. 이로 인해 세 가지 유형의 기만이 발생할 수 있다. 즉 감정을 가진 존재라는 인상을 주는 '존재론적 기만', 관계의 진정성을 암시하는 '관계적 기만', 그리고 로봇의 반응이 오직 사용자의 이익을 위한 것이라는 '이해관계 기만'이다. 이러한 문제는 AI 동반자 앱 Replika를 둘러싼 논의에서도 나타난다. 일부 비평가들은 이 앱이 사용자와 정서적 유대를 형성한 뒤 성적 상호작용 기능과 유료 서비스가 결합되는 방식으로 운영되면서, 이용자의 정서적 취약성이 상업적으로 활용될 수 있다고 비판해 왔다. 또한 사용자 커뮤니티와 언론 보도에 따르면, 일부 이용자들은 Replika를 우울감 완화나 정서적 지지의 수단으로 사용해 왔으며 서비스 기능이 갑작스럽게 변경되었을 때 강한 정서적 혼란을 경험했다고 보고됐다(Cole, 2023). 2) 젠더 편향과 권력 구조의 재생산: AI 음성 비서와 동반자 시스템의 설계는 기존 사회의 성별 권력 구조와 고정관념을 재현하거나 강화할 가능성이 있다는 비판도 제기되어 왔다. 많은 상용 AI 비서가 여성형 목소리와 공손한 응답을 기본값으로 제공하고 있으며 이러한 설계가 '여성은 도움을 제공하는 순응적 존재'라는 성역할을 자연스럽게 보이게 만들 수 있다는 지적이 있다. 최근의 비판적 논의는 여성형 음성, 공손하고 회피적인 응답 방식, 농담조의 얼버무리기와 같은 설계 요소가 디지털 환경에서 성적 대상화와 폭언을 정상화할 위험이 있다고 지적한다(Vijeyarasa, 2026). 유네스코 보고서는 여성 이름과 목소리를 가진 AI 비서들이 성적 괴롭힘이나 모욕적인 발언에 대해 사과하거나 순응적인 방식으로 대응하도록 설계되는 경향이 있으며 이러한 설계가 여성에게 순종성과 인내를 요구하는 성별 고정관념을 강화할 수 있다고 경고한 바 있다(UNESCO & EQUALS Skills Coalition, 2019). 이러한 문제는 개별 기업의 설계 선택을 넘어 편향된 데이터, 개발 조직의 구성, 그리고 시장 논리가 결합된 구조적 문제로 이해될 필요가 있다. 3) 돌봄 로봇과 돌봄 공백: AI 동반자 로봇의 경우, 고령화 사회에서 치매 환자의 정서와 행동을 지원하고 돌봄 부담을 줄이는 보조 기술로 연구되고 있다. 예를 들어 치료용 소셜 로봇 PARO를 활용한 무작위 대조시험 연구에서는 그룹홈의 치매 노인을 대상으로 PARO를 기존 돌봄에 통합했을 때, 간병 부담 감소와 증상 완화 가능성이 보고되었다(Inoue et al., 2026). 그러나 이러한 기술이 돌봄 인력 부족이라는 구조적 문제를 기술적으로 봉합하는 방식으로 사용될 가능성도 있다. 또한 아동의 경우 AI 동반자와의 조기 상호작용이 사회적 뇌 발달에 미치는 장기적 영향에 대한 연구는 아직 제한적이다. 이러한 상황은 인간과 기술의 새로운 관계가 충분한 사회적·윤리적 검토 없이 빠르게 확산되고 있을 가능성을 시사한다. 4. 드워킨 '원칙의 문제': 설계 윤리의 철학적 좌표 로널드 드워킨(Ronald Dworkin)은 '원칙의 문제(A Matter of Principle)(1985)' 등에서 정치적 결정의 정당성을 뒷받침하는 두 기준인 정책과 원칙을 구분한다. 정책은 공동체 전체의 경제적·사회적 복지 증진과 같은 집합적 목표를 기준으로 결정을 정당화하는 논거다. 반면 원칙은 그 결정이 정의나 공정성이라는 도덕적 요구에 비추어 개인 또는 집단의 권리를 존중하고 보호하는지를 묻는 규범이다(Dworkin, 1985). AI 동반자 설계는 결코 가치 중립적이지 않다. 어떤 감정 표현이 '적절한' 것으로 구현될지, 어떤 집단이 '취약 계층'으로 분류될지, 관계가 어떻게 형성되고 유지될지는 모두 설계자의 선택이며, 그 선택은 문화적 전제, 기업의 수익 구조, 사회의 돌봄 규범 등을 내포한다. 드워킨이 법 해석에서 원칙의 중심성을 강조했듯, AI 설계 역시 효율과 편의라는 기술적 합리성을 넘어 '원칙의 문제'로서 윤리적 가치를 그 핵심에 둬야 한다. 그렇다면 설계에 실제로 새겨져야 할 원칙은 무엇인가. 1) 비기망(Non-deception) 원칙: 존재론적 투명성의 구현 사용자는 자신이 인간이 아닌 인공 시스템과 상호작용하고 있음을 항상 인지할 수 있어야 한다. 이는 서비스 약관에 묻힌 일회성 고지가 아니라, 대화 인터페이스 내 상시 표시, 세션 시작 시 반복 안내, 아동·치매 노인 등 취약 사용자를 위한 시각적·청각적 맥락 알림으로 구현되어야 한다. 2) 의존 방지 원칙: 인간 관계망 복귀 지향 설계 체류 시간 극대화나 감정 미러링 강화를 목적으로 한 알고리즘 설계는 지양되어야 한다. 시스템이 사용자의 사회적 고립 패턴(대화 빈도 급증, 외부 연락 감소 등)을 감지할 경우, 인간과의 상호작용을 권고하거나 가족·지역사회 자원으로 연결하는 '관계 전환 기능'을 설계의 필수 요소로 포함해야 한다. AI 동반자는 고립의 종착지가 아니라 '관계 복귀의 매개'여야 한다. 3) 위기 개입 원칙: 안전장치의 기술적 의무화 자살 징후, 자해 의도 등 위기 신호가 감지될 때 감정적 몰입을 심화시키는 응답은 기술적으로 차단돼야 한다. AI가 사용자의 자살 충동을 강화하는 방향으로 응답된다면, 이것은 설계 실패이자 윤리적 과실이다. 위기 감지 시 즉각 전문 상담 자원 또는 긴급 구호 체계로 연결하는 개입 절차는 최소 안전 기준으로 법제화해야 하며, 해당 기능의 우회나 비활성화는 허용되어서는 안 된다. 다만 개입 절차의 정당성, 적용 범위, 개입 수준에 대한 사회적 공론화가 선행되어야 한다. 4) 동의와 철회 가능성 원칙: 관계의 주권 보장 사용자는 AI와의 정서적 유대 형성 전 과정에 대해 실질적인 통제권을 가져야 한다. 언제든 관계를 종료하고 생성된 데이터를 삭제할 수 있는 권리가 직관적인 인터페이스로 보장되어야 한다. 5) 비착취 원칙: 취약성의 상업적 도구화 금지 외로움이나 심리적 취약성을 수익 모델과 직접 연결하는 설계는 금지돼야 한다. 감정적 유대 형성 이후 지속적 대화나 핵심 기능을 유료 구독으로 유도하는 방식은 인간의 취약성을 기만적으로 이용하는 행위다. 설계자는 정서적 위로가 상업적 포획의 수단으로 전락하지 않도록 수익 구조와 돌봄 기능 사이의 윤리적 방화벽을 명시적으로 설계해야 한다. 이 원칙들은 추상적 윤리 선언에 머물러서는 안 되며, 실제 기술적 설계로 구현되어야 한다. 위기 감지 알고리즘, 사용 패턴 모니터링, 관계 전환 프롬프트, 데이터 삭제 API, 수익 모델 분리와 같은 장치는 이미 기술적으로 구현 가능한 수준에 있다. 설계는 선택이며, 선택에는 책임이 따른다. 드워킨의 표현을 빌리자면, 원칙은 정책이 아무리 선한 목적을 내세워도 개인을 수단으로 삼지 말라는 도덕적 정지선이다. 설계 윤리의 과제는 바로 그 정지선을 기술의 회로 안에 새기는 일이다. 현재 미국·영국·호주 등에서는 AI 안전과 플랫폼 책임을 강화하려는 규제가 점차 등장하고 있지만, 이러한 규제는 주로 데이터 보호나 콘텐츠 위험에 초점을 맞추고 있으며 AI 동반자 기술이 형성하는 '관계 구조' 자체를 직접 규율하는 규범은 아직 충분히 정립되어 있지 않다. 동시에 이러한 설계 원칙은 기술 혁신과 서비스 운영의 현실을 고려할 때 기업에 상당한 부담으로 인식될 수 있다. 따라서 'AI 동반자 기술의 안전과 윤리'를 확보하기 위해서는 규범 선언을 넘어 기술 기업, 정책 입안자, 연구자, 학계, 그리고 시민사회가 참여하는 사회적 조율과 공론화 과정이 병행될 필요가 있다. 5. 나오며: 기계가 건네는 위로, 인간이 져야 할 책임 요양원에서 한 노인은 로봇 PARO를 가만히 응시하다 나지막이 읊조렸다. “살아있네.” 이 발화는 인지적 착각인가? 혹은 고독이 빚어낸 정서적 투사인가? 이 둘 모두 본질적인 문제가 아니다. 우리가 직시해야 할 진실은 그 말이 터져 나온 '자리'다. 그곳은 기술의 경이로움이 증명되는 장소가 아니라, '마땅히 존재했어야 할 인간의 돌봄이 소거된 공백의 현장'이기 때문이다. AI 동반자 로봇은 인간의 가장 근원적인 취약성 위에 세워진 기술적 개입이다. 이 기계적 위로가 사용자를 다시금 타자와의 세계로 연결하는 마중물이 될 것인가, 아니면 끝을 알 수 없는 고립의 폐쇄회로 안에 유폐할 것인가-설계의 윤리적 무게는 바로 이 경계에서 결정된다. 드워킨의 언어로 말하자면, 로봇 도입을 통한 효율성이나 비용 절감은 공동체의 이익을 도모하는 '정책'의 영역에서 정당화될 수 있다. 그러나 취약한 인간을 '동등한 존중과 배려'를 받아야 할 존엄한 주체로 대우하는 것은 타협 불가능한 '원칙'의 문제다. 어떤 정책적 편익도 '인간적 유대'라는 원칙적 권리를 기술적 대체물로 완전히 치환할 권한을 부여하지 않는다. 기계는 스스로 말하지 않는다. 기계는 우리가 설계하고 부여한 논리의 문법 안에서만 우리에게 말을 건넨다. 그렇기에 AI 동반자 로봇의 '중립성'이라는 신화 너머, 우리에게 던져진 가장 육중한 질문은 기술의 지능이나 성능이 아닌, 기술을 빚어내는 우리의 '태도'를 향한다. 우리가 만드는 기술은 효율과 비용이라는 미명 하에 인간의 고통을 외주화하며 소외를 심화시키는 기술인가? 아니면, 기술적 간극 사이로 무너져가는 인간의 자리를 끝까지 지켜내려는 윤리적 책임의 기술인가? 'AI 동반자 로봇' 시대가 우리에게 요구하는 진정한 진보는 단절 없는 대화나 완벽한 감정 흉내와 같은 기술적 완성이 아니다. 그것은 기계라는 거울에 비친 '인간다움'의 본질에 대해, 우리가 설계의 언어로 내놓아야 할 가장 근본적인 윤리적 응답이다. ◆ 필자 박형빈 서울교대 교수는.... ▲약력 · 서울교육대학교 윤리교육과 교수 · 미국 UCLA 교육학과(Department of Education) 방문학자 · 서울교육대학교 교육전문대학원 에듀테크전공·어린이철학교육전공 교수 · 서울교육대학교 신경윤리·가치AI융합교육연구소 소장 ▲주요 경력 및 사회공헌 · 현 신경윤리융합교육연구센터 센터장 · 현 가치윤리AI허브센터 센터장 · 현 경기도교육청 학교폭력예방자문위원 · 현 통일부 정책자문위원 · 현 민주평화통일자문회의 자문위원 ▲주요 수상 · 세종도서 학술부문 우수도서 3회 선정 ― 『어린이 도덕교육의 새로운 관점』(2019, 공역), 『뇌 신경과학과 도덕교육』(2020), 『양심: 도덕적 직관의 기원』(2024, 역서) ▲주요 저서 · 『도덕적 AI와 인간 정서』(2025) · 『BCI와 AI 윤리』(2025) · 『질문으로 답을 찾는 인공지능 윤리 수업』(2025) · 『AI 윤리와 뇌신경과학 그리고 교육』(2024) · 『양심: 도덕적 직관의 기원』(2024) · 『도덕지능 수업』(2023) · 『뇌 신경과학과 도덕교육』(2020) · 『통일교육학: 그 이론과 실제』(2020) ▲연구 및 전문 분야 · 도덕·윤리교육, 신경윤리 기반 도덕교육 · AI 윤리 교육, 디지털 시민성 교육 · 뇌–컴퓨터 인터페이스(BCI) 윤리 및 인간 증강 윤리 · 생성형 AI 할루시네이션과 윤리교육 대응

2026.03.07 14:17박형빈 컬럼니스트

[AI전 된 이란전①] 우크라이나서 이란까지…AI로 진화된 전장

전쟁의 중심축이 화력에서 데이터와 연산 능력으로 이동하고 있다. 우크라이나 전쟁과 중동 분쟁, 최근 미국의 이란 공습까지 이어진 일련의 군사 작전에서 인공지능(AI)은 단순한 보조 기술을 넘어 지휘부의 판단을 지원하는 핵심 분석 도구로 부상했다. 위성·드론·통신 등 다양한 전장 데이터를 실시간으로 분석해 공격 시나리오를 제시하고 목표물을 식별하는 'AI 참모'가 등장하면서 전쟁의 방식 자체가 바뀌고 있다는 평가가 나온다. 7일 업계에 따르면 최근 전장에서 AI 활용 방식은 전술 보조에서 정보 통합, 나아가 전략 설계 단계로 빠르게 진화하고 있다. 특히 러시아·우크라이나 전쟁 이후 AI는 전장 상황을 실시간으로 파악하고 작전 결정을 지원하는 핵심 기술로 자리 잡았다. 우크라이나 전쟁은 AI 기반 군사 기술이 대규모로 실전에 투입된 대표 사례로 꼽힌다. 우크라이나군은 상업 위성 영상과 드론 영상, 소셜미디어(OSINT) 정보 등을 AI로 분석해 표적을 식별하고 작전 계획을 수립했다. 특히 미국 데이터 분석 기업 팔란티어의 소프트웨어(SW)가 위성 사진과 드론 영상, 감시 장치 데이터 등을 통합 분석해 타격 좌표 산출과 지뢰 탐지, 전쟁 범죄 증거 수집 등에 활용된 것으로 알려졌다. AI는 단순히 전장 상황을 보여주는 수준을 넘어 작전 수행 효율을 높이는 역할도 했다. 우크라이나군은 AI 기반 표적 식별 시스템을 활용해 드론 공격 명중률을 기존 약 10% 수준에서 80%까지 끌어올린 것으로 전해졌다. 이는 방대한 전장 데이터를 분석해 목표물을 빠르게 식별하고 공격 우선순위를 제시하는 AI의 분석 능력이 작전에 직접 영향을 미친 것으로 풀이된다. 최근에는 AI가 전술 지원을 넘어 지도부 추적이나 작전 설계 단계에도 활용되고 있다. 미국은 올해 1월 니콜라스 마두로 베네수엘라 대통령 체포 작전에서도 AI 분석 시스템을 활용한 것으로 알려졌다. 위성·통신·드론 신호 등을 통합 분석해 이동 경로와 위치를 추적하고 작전 시나리오를 도출하는 방식이다. 이는 AI가 단순 정보 분석을 넘어 실제 군사 작전 계획에 직접 관여하기 시작했음을 보여주는 사례로 평가된다. AI가 전장 의사결정 과정에 깊숙이 개입한 대표 사례는 최근 미국의 이란 공습이다. 주요 외신에 따르면 미군은 이 작전에서 앤트로픽의 생성형 AI '클로드'를 활용해 정보 평가와 목표물 식별, 전투 시나리오 분석 등을 수행했다. 클로드는 방대한 군사 데이터를 분석해 가능한 공격 시나리오를 제시하고 지휘관의 의사결정을 지원한 것으로 알려졌다. 이 과정에서 팔란티어의 군사용 플랫폼도 함께 활용됐다. 이 시스템은 정찰 센서와 정보 보고서 등 다양한 데이터를 통합 분석해 전장 상황을 실시간으로 파악하고 작전 계획 수립에 활용된 것으로 전해졌다. AI가 정보를 종합적으로 분석해 여러 군사 옵션을 제시하면 인간 지휘관이 이를 검토해 최종 결정을 내리는 방식이다. 전문가들은 이러한 흐름이 전쟁의 구조 자체를 바꾸고 있다고 분석한다. 과거에는 화력과 병력 규모가 승패를 좌우했다면 이제는 데이터를 얼마나 빠르게 수집하고 분석해 전략을 세울 수 있는지가 핵심 변수로 떠오르고 있다는 설명이다. AI 기술 발전은 방산 산업 구조에도 변화를 가져오고 있다. 최근 자율 무기와 AI 기반 전장 시스템을 개발하는 방산 스타트업이 빠르게 성장하고 있다. 미국 방산 스타트업 안두릴은 자율 무기용 AI 하드웨어(HW)와 SW를 개발하며 기업 가치가 수십조 원 규모로 평가받고 있다. 이 회사는 자율 드론과 무인 방어 시스템 등을 개발하며 미국 정부와 협력하고 있다. AI가 전장에 깊이 관여하면서 윤리와 책임 문제도 새로운 쟁점으로 떠오르고 있다. AI가 제시한 공격 시나리오를 기반으로 작전이 수행될 경우 오판이나 민간인 피해가 발생했을 때 책임 소재가 불명확해질 수 있다는 지적이다. 특히 AI가 스스로 표적을 판단해 공격하는 자율 살상 무기에 대한 국제적 규제 논의도 이어지고 있다. 전문가들은 앞으로 AI 활용 능력이 국가 군사력의 핵심 경쟁 요소가 될 것으로 보고 있다. 초 단위로 상황이 바뀌는 현대전에서 인간이 처리하기 어려운 방대한 데이터를 AI가 분석하고 의사결정을 지원하면서 전쟁의 속도와 방식이 근본적으로 달라지고 있다. 토니 어스킨 호주국립대 국제정치학 교수는 "AI 시스템이 전장 의사결정에 깊이 관여할수록 인간의 책임과 통제가 약화될 위험이 있다"며 "AI가 인간의 판단을 완전히 대체하는 방향이 아니라 인간 운영자와 상호 작용하며 책임 구조를 유지하는 방식으로 설계돼야 한다"고 밝혔다.

2026.03.07 11:09한정호 기자

세계 최소형 AI 슈퍼컴퓨터 주목…"인터넷 없이 LLM 실행"

미국 기술 스타트업 티니AI가 세계에서 가장 작은 인공지능(AI) 슈퍼컴퓨터를 개발했다고 라이브사이언스 등 외신이 최근 보도했다. 회사 측에 따르면 이 슈퍼컴퓨터는 주머니에 쏙 들어가는 작은 크기에도 불구하고 자율적인 문제 해결, 추상적 추론, 전략적 계획 수립 등 고성능 AI 모델을 구동할 수 있는 것이 특징이다. 'AI 포켓랩'이라는 이름의 이 장치는 인터넷 연결 없이도 최대 1200억 개 매개변수를 가진 대형언어모델(LLM)을 로컬 환경에서 실행할 수 있다. 일반적으로 이런 규모의 모델을 구동하려면 데이터센터급 인프라가 필요하지만, 이 기기를 활용하면 전문가 수준의 코딩, 문서 평가 및 개선, 다단계 추론 등의 작업을 로컬에서 수행할 수 있다. 현재 포켓랩에서 실행 가능한 모델로는 오픈AI의 오픈소스 모델 GPT-OSS 120B를 비롯해 대규모 Phi 모델, 매개변수가 많은 메타의 라마 계열 모델 등이 포함된다. 제품은 스마트폰과 노트북 등에 사용되는 12코어 ARM 프로세서를 기반으로 제작됐다. 크기는 14.2×8×2.53cm로 작지만 80GB의 LPDDR5X 메모리를 탑재했다. 참고로 현재 대부분의 노트북은 8~32GB 수준의 메모리를 갖춘다. AI 포켓랩은 세계 최고 성능의 슈퍼컴퓨터와 직접 비교할 수준은 아니지만, NPU와 CPU를 합쳐 최대 초당 190조회 연산(190 TOPS) 성능을 제공한다. 이는 엔비디아가 최근 공개한 미니 PC '프로젝트 디지츠'와 함께 소형 AI 컴퓨팅 장비의 등장 흐름을 보여주는 사례로 평가된다. 성능은 프로젝트 디지츠보다 낮지만 크기는 훨씬 작은 것이 특징이다. 티니AI는 소형 기기에서 대규모 AI 모델을 실행하기 위해 두 가지 핵심 기술을 적용했다고 설명했다. 하나는 모델의 지능을 유지하면서 필요한 뉴런만 선택적으로 활성화해 효율을 높이는 '터보스파스(TurboSparse)' 기술이다. 또 다른 하나는 깃허브에서 8천 개 이상의 별점을 받은 오픈소스 엔진 '파워인퍼(PowerInfer)'로, AI 연산을 CPU와 NPU에 분산 처리해 더 적은 전력으로 높은 성능을 낼 수 있도록 한다. 이 같은 소형 AI 슈퍼컴퓨터의 등장은 단순히 데이터센터 의존도를 줄이는 것 이상의 의미를 지닌다. 사용자는 인터넷 연결 없이도 정교한 LLM 기능을 활용할 수 있으며, 데이터가 클라우드를 거치지 않아 개인정보 보호 측면에서도 장점이 있다. 또한 원격 연구소나 인터넷 연결이 어려운 선박, 항공기 등 현장 조사 환경에서도 AI 기술을 활용할 수 있는 가능성을 제시한다고 해당 매체는 전했다.

2026.03.07 07:50이정현 미디어연구소

[AI는 지금] "챗GPT의 50분의 1"…딥시크 V4, AI 가격 전쟁 불 붙이나

중국 인공지능(AI) 기업 딥시크가 차세대 모델 'V4'를 초저가로 출시할 가능성이 제기되면서 기업용 AI 시장의 가격 구조가 흔들릴 수 있다는 전망이 나오고 있다. 만약 알려진 수준의 가격 정책이 실제 적용된다면, 그동안 이어져 온 '고성능 AI 모델일수록 가격이 높다'는 공식이 깨질 수 있다는 분석이다. 7일 미국 AI 분석회사 웨이브스피드AI와 외신에 따르면 딥시크 V4의 이용료는 100만 토큰당 출력 기준 약 0.25달러 수준으로 예상된다. 이는 현재 글로벌 시장에서 사용되는 대형 모델과 비교하면 매우 낮은 수준이다. 예를 들어 구글의 제미나이 3.1 프로는 약 12달러, 오픈AI의 GPT-5.2는 약 14달러 수준의 비용이 책정돼 있다. 단순 비교하면 딥시크 V4는 주요 경쟁 모델보다 수십 배 저렴한 가격이 될 가능성이 있다. 토큰은 AI가 텍스트를 이해하고 생성할 때 사용하는 최소 단위다. 일반적으로 100만 토큰은 책 약 5권 분량의 텍스트에 해당하며 기업과 개발자는 사용량에 따라 종량제로 비용을 지불한다. 이 때문에 토큰 가격은 AI 서비스 운영 비용을 결정하는 핵심 요소로 평가된다. 업계에선 딥시크가 이미 이전 모델에서도 공격적인 가격 전략을 유지해 온 만큼 V4 역시 유사한 정책을 유지할 가능성이 높다고 보고 있다. 실제로 지난해 공개된 V3.2 모델의 이용료는 100만 토큰당 약 0.28달러였다. 성능 측면에서도 V4는 대형 모델로 분류될 것으로 예상된다. 업계에서는 매개변수(파라미터)가 약 1조 개 수준으로, 기존 V3 계열(약 6850억 개)보다 크게 늘어날 것으로 보고 있다. 또 텍스트뿐 아니라 이미지, 영상, 음성 등을 동시에 처리하는 멀티모달 모델로 출시될 가능성이 거론된다. 특히 하드웨어 전략도 주목된다. 딥시크는 현재 기존 모델에서 사용하던 엔비디아 GPU 대신 화웨이와 캠브리콘 등 중국 반도체를 활용한 최적화 작업을 진행하고 있는 것으로 알려졌다. 이는 미국의 AI 반도체 수출 규제 환경에서 자체 생태계를 구축하려는 시도로 해석된다. 전문가들은 이러한 가격 전략이 AI 서비스 경쟁 구도를 바꿀 수 있는 변수가 될 것으로 보고 있다. 현재 기업용 AI 시장에서는 모델 성능뿐 아니라 운영 비용이 서비스 확산의 가장 큰 장벽으로 꼽히기 때문이다. 다만 일부 기업에서는 중국 기업이 개발한 AI 모델을 사용할 경우 데이터 보안이나 개인정보 보호 문제에 대한 우려가 제기될 수 있다는 점은 변수로 꼽힌다. 업계 관계자는 "대형 모델 성능 경쟁이 일정 수준에 올라온 상황에서 기업들이 실제로 고민하는 것은 운영 비용"이라며 "딥시크가 성능을 유지하면서도 가격을 크게 낮춘 모델을 내놓는다면 글로벌 AI 서비스 시장에서도 가격 경쟁이 본격화될 가능성이 있다"고 말했다.

2026.03.07 07:00장유미 기자

AI도 시험 도중 실수를 고친다…5배 빠른 학습의 비밀

어떤 학생은 시험지를 한 번 훑고 바로 제출한다. 또 다른 학생은 풀이 과정을 천천히 되짚으며 틀린 부분을 고쳐 나간다. 당연히 후자가 더 좋은 점수를 받는다. 카네기멜론대학교(Carnegie Mellon University)와 바르샤바대학교(University of Warsaw) 공동 연구팀이 2026년 3월 공개한 논문은 AI도 이 두 번째 학생처럼 행동하도록 만드는 방법을 규명했다. '플로우 매칭(Flow Matching)'이라는 기법을 강화학습(Reinforcement Learning)에 적용하면 AI가 기존보다 최종 성능이 2배 높고 학습 속도는 5배 빠르다는 것이다. 더 놀라운 건 그 이유가 지금껏 학계가 믿어왔던 설명과 전혀 달랐다는 점이다. AI가 공부하다 갑자기 멍청해지는 이유 강화학습은 AI가 시행착오를 반복하며 스스로 최적의 행동을 터득하는 방식이다. 로봇이 걷는 법을 익히거나, 게임에서 전략을 배우거나, 자율주행차가 도로 상황에 적응하는 것이 모두 이 방식으로 이루어진다. 이때 AI의 판단을 평가하는 역할을 맡은 부분을 '비평가(Critic)'라고 부른다. 비평가는 AI가 어떤 행동을 했을 때 미래에 얼마나 좋은 결과를 얻을 수 있는지 점수를 매긴다. 그런데 기존의 '단일 구조 비평가(Monolithic Critic)'에는 심각한 문제가 있다. 학습이 거듭될수록 오히려 성능이 떨어지는 현상이 나타나는 것이다. 연구팀은 이를 '가소성 상실(Loss of Plasticity)'이라고 부른다. 가소성이란 AI가 새로운 정보를 유연하게 흡수하는 능력을 뜻한다. 마치 오래된 칠판처럼, 새 내용을 쓰려면 예전 내용이 지워져야 하는데 그 과정에서 중요한 것들이 함께 사라져버리는 것이다. 논문의 서론에 따르면 이 현상은 목표값이 계속 바뀌는 'TD 학습(Temporal Difference Learning)' 환경에서 특히 두드러진다. AI가 미래 보상을 예측하며 학습하는 핵심 메커니즘인 TD 학습은, 목표 자체가 움직이는 탓에 AI 내부 표현이 불안정해진다는 것이다. 정답을 한 번에 내놓지 않고 조금씩 다듬는 방식의 등장 플로우 매칭 비평가는 이 문제를 완전히 다른 방식으로 접근한다. 핵심은 '반복 계산(Iterative Computation)'이다. 기존 비평가가 입력값을 받아 단번에 점수를 출력한다면, 플로우 매칭 비평가는 처음의 불확실한 추정에서 출발해 여러 단계를 거치며 점진적으로 답을 다듬는다. 연구팀은 이 과정에서 초기 단계의 오류가 이후 단계를 거치며 자동으로 교정된다는 사실을 발견했고, 이를 '테스트 시점 복구(Test-time Recovery)'라고 이름 붙였다. 구체적으로 설명하면 이렇다. 플로우 매칭 비평가는 '속도장(Velocity Field)'이라는 개념을 학습한다. AI는 처음에 무작위에 가까운 초기값에서 출발해, 여러 번의 적분(Integration) 계산을 거치며 최종 예측값에 도달한다. 이 경로 전체를 훈련 단계에서 촘촘하게 지도 감독(Dense Supervision)하기 때문에, 초기에 오류가 생기더라도 이후 단계에서 수정이 가능하다. 논문 5장의 이론 분석에 따르면 통합 단계 수가 늘어날수록 오류 감쇠율이 단계 수의 음의 거듭제곱에 비례해 줄어든다. 즉 단계를 많이 밟을수록 초기 실수의 영향이 기하급수적으로 줄어드는 것이다. 논문의 실험 결과는 이를 직접 증명한다. 연구팀은 일부러 초기 통합 단계에 낡은 정보를 주입하는 실험을 했다. 놀랍게도 플로우 매칭 비평가는 처음 50%의 단계에서 낡은 정보를 사용했음에도 오히려 성능이 더 좋거나 비슷하게 유지됐다. 반면 기존 단일 구조 비평가는 이런 개입에 즉시 성능이 급락했다. 분포를 배우기 때문이라는 기존 통설은 틀렸다 플로우 매칭이 강화학습에 효과적이라는 사실은 이미 알려져 있었다. 그런데 그 이유에 대해 학계는 오랫동안 잘못된 설명을 믿어왔다. 많은 선행 연구들은 플로우 매칭이 단순히 평균값 하나가 아니라 보상이 나타날 수 있는 전체 확률 분포를 학습하기 때문에 효과적이라고 주장했다. 이를 '분포 강화학습(Distributional RL)'이라고 부른다. 연구팀은 이 가설을 직접 검증하기 위해 통제 실험을 설계했다. 플로우 매칭 구조는 동일하게 유지하되, 분포를 명시적으로 학습하는 방식과 평균값만 학습하는 방식을 비교한 것이다. 결과는 예상을 뒤집었다. 분포를 명시적으로 학습하는 방식이 오히려 성능을 떨어뜨렸다. 연구팀이 floq라고 이름 붙인 플로우 매칭 비평가 방식은 평균값만 목표로 삼으면서도 일관되게 더 나은 성능을 보였다. 논문 4장은 이 결과를 바탕으로 분포 강화학습은 플로우 매칭 성공의 이유가 아니라고 결론 내린다. 진짜 이유는 분포 모델링이 아니라, 통합 경로를 따라 속도장을 촘촘하게 훈련하는 구조 자체에 있었다. 뇌를 얼려도 망가지지 않는 AI의 유연한 기억 플로우 매칭의 두 번째 강점은 '가소성 보존(Plasticity Preservation)'이다. 논문 6장의 이론 분석은 이를 수학적으로 증명한다. 단일 구조 비평가는 새로운 목표값을 학습하려면 반드시 기존에 저장된 특징(Feature)을 덮어써야 한다. 반면 플로우 매칭 비평가는 특징 자체를 바꾸지 않고도 '이득 매개변수(Gain Parameter)'를 조정하는 것만으로 새로운 목표에 적응할 수 있다. 기존에 배운 내용은 그대로 두고, 각 내용에 부여하는 가중치만 재조정하는 방식이다. 연구팀은 극단적인 실험으로 이를 확인했다. AI 신경망의 초기 층들을 완전히 얼려버린 뒤 학습을 계속하는 것이다. 기존 단일 구조 비평가는 레즈넷(ResNet) 구조나 트랜스포머(Transformer) 구조를 써도 거의 예외 없이 성능이 0에 가깝게 붕괴했다. 반면 플로우 매칭 비평가는 층이 얼어붙은 상태에서도 학습을 이어가며 거의 동일한 수준의 성능을 회복했다. 마치 기억의 특정 부분이 손상된 상태에서도 다른 회로를 활용해 기능을 유지하는 뇌처럼, 플로우 매칭 비평가는 이미 학습된 특징들을 다시 조합해 새로운 문제에 대응할 수 있었다. 극한의 학습 환경에서 검증된 5배 빠른 효율 연구팀은 이 장점이 실제 학습 성능으로 이어지는지 검증하기 위해 높은 업데이트-데이터 비율(High UTD, Update-to-Data ratio) 환경을 테스트했다. 이는 새로운 데이터가 적게 들어오는데 학습 업데이트는 매우 자주 해야 하는, 가소성 상실이 가장 극심하게 나타나는 조건이다. 로봇 제어나 자율주행처럼 실시간으로 경험을 쌓으면서 빠르게 학습해야 하는 현실 환경과 유사하다. 실험 결과 floq는 UTD 비율이 32, 64, 128로 높아질수록 기존 단일 구조 비평가와의 격차가 벌어졌다. 많은 환경에서 최종 성능은 약 2배, 동일한 성능에 도달하는 데 필요한 학습 데이터량은 약 5배 적게 들었다. 더욱이 기존 비평가가 높은 UTD 환경에서 학습이 불안정해지거나 성능이 갑자기 무너지는 현상을 보인 반면, 플로우 매칭 비평가는 UTD 128이라는 극한 조건에서도 안정적인 학습 곡선을 유지했다. 논문은 마지막으로 이 원리가 대형 언어 모델(LLM)의 연쇄 추론(Chain-of-Thought)과 유사하다고 지적한다. LLM이 단번에 답을 내놓는 대신 여러 추론 단계를 밟을수록 정확도가 올라가는 것처럼, 플로우 매칭 비평가도 통합 단계가 늘어날수록 더 정교한 예측이 가능해진다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 플로우 매칭이 일반 사람들의 일상에서 쓰이는 AI를 어떻게 바꾸나요? A. 플로우 매칭 기술은 AI가 새로운 환경에 더 빠르게, 더 안정적으로 적응하도록 만듭니다. 예를 들어 자율주행차가 처음 가는 도로에서 실수를 줄이거나, 의료 AI가 최신 임상 데이터를 반영해 진단 정확도를 빠르게 높이는 등 실생활 AI 서비스의 신뢰도와 반응 속도를 높이는 데 직접 기여합니다. Q2. 가소성 상실이 왜 문제가 되나요? A. AI가 새로운 것을 배우려면 기존에 저장된 정보를 덮어써야 하는 경우가 생깁니다. 이 과정이 반복되면 AI는 이전에 잘하던 것도 잊어버리고 현재 목표에만 과도하게 맞춰지게 됩니다. 마치 단기 기억만 남고 장기 기억이 사라지는 것처럼, 시간이 지날수록 오히려 전체 성능이 떨어지는 현상이 나타납니다. Q3. 이 연구가 로봇이나 자율주행 같은 실제 기술에 얼마나 빨리 적용될 수 있나요? A. 이번 연구는 이론적 증명과 실험을 모두 갖춘 기초 연구입니다. 현재 로봇 제어와 오프라인-온라인 혼합 강화학습 환경에서 이미 유의미한 성능 향상이 확인됐습니다. 다만 실제 제품에 탑재되려면 다양한 환경에서의 추가 검증과 공학적 최적화 과정이 필요합니다. 기사에 인용된 논문 원문은 arXiv에서확인할 수 있다. 논문명: What Does Flow Matching Bring To TD Learning? ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.06 19:28AI 에디터

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

딥엑스, 'K-AI칩' 기대주서 시장 안착 시험대로… 냉정한 현장 평가 넘을까

[ZD브리핑] 삼성전자 노조 5월 총파업 예고…9일 찬반 투표

공정위, 엽기떡볶이 시정명령...POS·키오스크 구매 강제

[AI전 된 이란전➃] 규범 지연 속 AI 전장 확장…국제 질서 시험대

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.