• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'무기 AI'통합검색 결과 입니다. (10건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

알고리즘 전쟁 다가온다…미·중 국방 AI 자율무기 경쟁 격화

중국이 매·비둘기·코요테 등 동물의 사냥·회피 본능을 모사한 알고리즘으로 인공지능(AI) 기반 무기 체계를 고도화하면서 미·중 간 AI 국방 경쟁이 격화되고 있다. 26일 월스트리트저널(WSJ)에 따르면 중국 인민해방군(PLA)은 드론 군집·로봇견·자율 무인체계를 핵심 전력으로 삼고 AI 기술을 전장에 본격 접목하는 데 집중 중이다. WSJ가 중국 방산기업과 군 관련 대학의 특허, 정부 조달 입찰 문서, 연구논문 등을 분석한 결과 중국이 최소한의 인간 개입으로 대규모 무인 전력을 운용하려는 방향성이 나타나고 있다. 대표적인 사례로 중국 군사 연계 대학인 베이항대 연구진은 드론 군집 간 교전을 실시간으로 모의하는 AI 기술을 선보였다. 연구진은 매가 약한 먹잇감을 골라 포착하는 방식을 참고해 방어 드론이 상대의 취약한 목표를 골라 제거하도록 훈련했다. 또 공격 드론은 비둘기의 회피 행동을 모사해 방어망을 피하도록 학습시켰다. 이같은 동물 행동 기반 AI 학습은 중국이 구상하는 차세대 전장 개념의 핵심으로 떠오르고 있다. 중국 군사 이론가들은 AI 시대 전쟁이 알고리즘이 주도하고 무인체계가 주력 전투력이 되며 군집 작전이 기본 전투 방식이 될 것이라고 전망했다. 전투 판단과 타격, 기동까지 기계가 담당하는 구조로 재편되면 인간 중심의 지휘·결심 체계 변화도 예상된다. 중국군은 공중뿐 아니라 지상에서도 AI 전력을 확장 중이다. 대형 모선 드론에서 소형 드론 다수를 투하하는 형태의 '지우톈'을 시험 비행했으며 무장형 로봇견에 늑대의 행동 양식을 학습시킨 뒤 입체적 무인전 개념을 발전시킨 것으로 전해졌다. 공중 군집과 지상 로봇 부대를 연동해 협동 전투를 구현하려는 흐름도 포착된다. 이는 전장에서 사람이 조종하는 드론에서 AI가 통제하는 드론 군집으로 변화하는 양상이다. 통신 교란이 심한 상황에서도 AI가 스스로 목표를 탐지하고 장애물을 회피해 팀 단위 협동을 가능케 하는 자율성 전략이다. 다만 AI 무기 체계 확산은 치명적인 위험도 동반한다는 지적이 나온다. 전장에 투입된 자율 무기가 인간 통제를 벗어나 오판을 내릴 가능성과 AI의 의사결정 과정이 불투명한 블랙박스가 될 경우 책임소재가 흐려질 수 있다는 설명이다. 미국 역시 대응에 속도를 내고 있지만 접근 방식은 다른 것으로 분석된다. WSJ는 미 국방부가 새로운 장거리 자폭 드론을 배치하는 등 전력 보강을 진행하는 한편, 미국은 중국처럼 대규모 군집보다는 개별 드론의 자율성과 인간 협업을 강화하는 데 더 무게를 두고 있다고 전했다. 이는 분권형 전투 운용을 강조하는 미군 전략과도 연결된다. 이에 대해 업계 관계자는 "미중 AI 국방 경쟁 핵심은 누가 더 빨리, 더 안전하게, 더 대규모로 자율 무인 전력을 실전 수준으로 끌어올리느냐에 달려 있다"며 "중국은 드론·로봇의 생산 기반과 결합한 군집 전술을 앞세워 전장을 압도하려 하고 미국은 정밀한 자율성·인간과의 결합 전투에 방점을 찍고 있다"고 설명했다. 이어 "AI가 국방을 고도화할수록 전쟁은 더 빠르고 복잡해지지만, 동시에 통제 불능의 위험도 커지고 있다는 점에서 국제사회 차원의 규범 논의도 불가피해질 것"이라고 전망했다.

2026.01.26 11:04한정호 기자

안두릴, 美 자율무기 시험·실전서 연달아 실패…신뢰성 도마 위

미국 방산 스타트업 안두릴 인더스트리가 운용 과정에서 잇단 결함과 사고를 일으키며 자율무기 체계의 안전성과 신뢰성을 둘러싼 논란에 휩싸였다. 이에 대해 안두릴은 연간 수천회에 달하는 시험 과정에 발생하는 필연적인 요소라며 오히려 이를 통해 빠르게 발전하고 있다고 반박했다. 28일 월스트리트저널(WSJ)등 외신 보도에 따르면안두릴이 개발한 자율무기 시스템은 미 해군 훈련, 공군 시험, 우크라이나 전장 등 주요 시험·실전 환경에서 연이어 문제를 일으켰다. 자율 소프트웨어 플랫폼 '래티스(Lattice)'와 이를 기반으로 한 무인 드론보트, 무인 전투기 '퓨리(Fury)', 카운터드론(요격 드론) 시스템 '앤빌(Anvil)', 체공 탄약(로이터링 드론) '알티우스(Altius)' 등이 핵심 사례로 지목됐다. 주로 지목된 사건은 지난 5월 캘리포니아 연안에서 열린 미 해군 훈련이다. 당시 해군은 전투함에서 30여척의 무인 드론보트를 발진·회수하는 실험을 진행했는데, 이 가운데 10여척 이상이 명령 입력을 거부하고 자동 정지 모드에 들어가 사실상 '바다 위에 떠 있는 고철'이 된 것으로 전해졌다. 다른 선박과의 충돌 위험이 커지자 훈련은 중단됐고, 군 인력은 밤새 드론보트를 예인해 다음날 오전까지 회수 작업을 진행한 것으로 알려졌다. 훈련 후 작성된 해군 보고서에는 안두릴 측의 운용·보안 지침 위반과 잘못된 설명이 적시됐으며, 일부 장병은 "지속적인 운영보안 위반과 안전 위반"을 경고하는 이례적인 표현까지 남긴 것으로 전해졌다. 안두릴은 문제 원인이 래티스 자체가 아니라 협력사 무인정에 탑재된 소프트웨어 버그 때문이라며 결함을 수정한 뒤 같은 훈련에서 임무를 완료했다고 설명했다. 다른 시험에서도 오류가 이어졌다. 안두릴이 미 공군 사업을 위해 개발 중인 무인 전투기 퓨리는 올여름 지상 시험에서 기계적 결함으로 엔진이 손상돼, 첫 비행이 예정 시점보다 늦춰졌다. 같은 해 8월 오리건주 펜들턴 인근 훈련장에서 진행된 카운터드론 시스템 앤빌 시험에서는 기체가 추락하며 약 22에이커 규모 산불이 발생했다. 안두릴은 자체 차량으로 초기 진화를 시도했지만, 결국 현지 소방서 소속 소방차 3대가 출동해 진화 작업을 마무리한 것으로 전해졌다. 회사는 해당 시험이 사전에 합의된 안전 절차에 따라 진행됐고, 이후 화재 위험을 줄이기 위한 별도 완화 대책을 마련했다고 밝혔다. 우크라이나 전쟁에서도 현재 안두릴의 무기가 투입돼 테스트를 진행 중이다. 하지만 우크라이나 정보기관 SBU 산하 최전방 부대에 배치된 알티우스 체공 탄약이 러시아군 전자전 교란에 취약해 목표에 도달하기 전에 추락하거나 표적을 맞히지 못하는 사례가 반복됐다고 외신은 전했다. 일부 부대는 이런 문제 때문에 2024년 이후 알티우스 운용을 사실상 중단한 것으로 알려졌다. 반면 로이터에 따르면 안두릴은 알티우스와 '고스트(Ghost)' 드론 등을 수백대 규모로 우크라이나에 공급해 왔으며, 우크라이나와 영국 국방 당국은 전반적인 운용 성과에 대해서는 일정 수준 만족을 표시해 왔다는 평가도 나온다. 이번 논란이 더 커지는 배경에는 안두릴의 파격적인 성장 속도도 자리한다. 안두릴은 6월 시리즈 G 투자 라운드에서 25억달러를 조달하며 기업가치 305억달러를 인정받았다. 이 라운드를 주도한 곳은 설립 초기부터 안두릴을 지원해온 파운더스펀드로 단독으로 10억달러를 베팅한 것으로 알려졌다. 이번 투자로 안두릴의 가치는 1년 전 140억달러 수준에서 두 배 넘게 뛰었고 연 매출도 2024년 약 10억달러 수준으로 성장한 것으로 전해졌다. 안두릴 측은 최근 일부 외신 보도가 경쟁사 이해관계가 반영된 제한된 사례만을 과장해 인용해, 새로운 방산 기업 전반을 실패 사례로 묘사하고 있다고 반박했다. 오히려 연간 수천회에 달하는 시험 과정에서 필연적으로 발생하는 일부 실패를 통해 기술을 고도화하고 있으며 우크라이나 전장과 미군 시험 현장에서 반복적인 피드백 및 개선을 거쳐 알티우스와 고스트-X 등 주요 체계의 성능과 신뢰성이 크게 향상됐다고 강조했다. 또 피트 헤그세스 국방장관이 "너무 늦게 도착해 실현 불가능한 100% 해결책보다 지금 보유한 85% 해결책이 훨씬 낫다"는 말을 인용하며 실제 상황에서 향상되는 현장 역량은 언제나 이론적인 완벽함을 능가한다고 덧붙였다.

2025.11.28 18:14남혁우 기자

탑엔지니어링, 방산 자율 제조 시스템 개발 컨소시엄 참여

검사 공정 장비 전문 기업인 탑엔지니어링은 '첨단 방어무기체계용 통신 및 레이더 모듈의 유연 생산을 위한 AI 자율 제조 시스템 개발' 컨소시엄에 주관연구개발기업으로 선정됐다고 13일 밝혔다. 한화시스템이 수요기업으로 참여한 이 프로젝트는 첨단 방어무기체계 사업에서 핵심 부품 생산 자동화를 위한 대규모 R&D 컨소시엄으로 총 사업비는 112억원, 사업 기간은 2029년 12월까지다. 현재 제조공정에서 다품종, 수작업 생산으로 인력 의존도가 높고 수요에 대한 신속 대응에 어려움이 있다. 이번 컨소시엄은 방어무기 통신부품 유연생산 AI 팩토리 플랫폼을 개발해 ▲생산성 20% 향상 ▲공정불량률 0.5% 이하 달성 ▲공정 리드타임 60% 감소를 목표로 하고 있다. 산업통상자원부가 지원하고 주관연구개발기관인 탑엔지니어링 외 유일로보틱스, 원프레딕트, 애자일소프트웨어, 구미전자정보기술원, 경운대학교 산학협력단 등이 참여해 ▲복합 센싱 기술을 활용한 제조공정 데이터 수집 및 분석 AI 모델 ▲AI 생산공정 최적 제어 기반 생산 자율화 기술 ▲AI 비전 알고리즘 기반 품질 관리 기술 ▲툴 체인지 로봇 기반 조립·검사 및 다품종 유연 생산 기술 ▲제조설비 및 환경 데이터 기반 설비 이상 탐지·결함·고장 예측 기술 등 AI 기술을 개발하게 된다. 탑엔지니어링은 AI 자율 제조를 위한 시스템 제작 총괄을 맡아 1단계 자율제조 시스템 단위 공정 장비 개발 및 연계 시스템 설계, 2단계 자율제조 시스템 구축 및 실증 평가를 진행한다. 탑엔지니어링 관계자는 "AI와 로봇 기술을 융합한 차세대 제조 시스템 상용화를 통해 국내 방위산업의 제조 자동화 수준을 향상시키고 향후 민간 제조업 분야로의 기술 확산도 기대할 수 있을 것"이라고 말했다.

2025.10.13 10:18장경윤 기자

"AI가 핵무기 통제하는 건 시간 문제"

핵 전문가들과 노벨상 수상자들이 모여 인공지능(AI)이 핵 무기를 통제하는 것이 시간 문제라는 의견을 내놨다고 와이어드, 퓨처리즘 등 외신들이 최근 보도했다. 아직까지는 핵무기 발사는 인간에 달려 있으나 향후 핵 무기 발사 시스템의 일부에 AI가 포함되는 것은 시간 문제라는 것이 전문가들의 주장이다. 보도에 따르면, 지난 달 중순 노벨상 수상자들은 시카고 대학에 모여 핵 전문가들과 만나 AI와 세계 종말에 대해 논의하는 자리를 가졌다. 이 행사는 노벨상 수상자들에게 핵무기에 대해 알리고, 이들이 핵 전쟁을 피할 수 있는 방법을 제시하도록 하는 게 목표였다. 이 자리에서 AI는 모두의 관심사였다. 핵·안보 분야 전문가로 유명한 스콧 세이건 스탠퍼드 대학 교수는 회담 종료 후 "우리는 AI와 신기술이 일상생활에 영향을 미치는 새로운 시대로 접어들고 있으며, 동시에 핵 세계에도 영향을 미치고 있다"고 밝혔다. 미 공군 소장 출신이자 미국 핵과학자회보 과학보안위원회 위원인 밥 라티프는 AI에 대해 “이것은 전기와 같다”며, “모든 것에 스며들 것”이라고 말했다. 이 회담에서 긍정적인 내용은 조만간 AI가 핵 코드를 획득할 것이라고 생각하는 사람은 아무도 없었다는 점이다. 미 과학자 연맹 글로벌 리스크 담당 이사이자 과거 오바마 대통령의 특별 보좌관이었던 핵 전문가 존 울프스탈은 핵 전문가들 사이에는 “그 부분에 대해서는 의견이 일치한다”고 말했다. 하지만, 그는 미 권력의 중심부에서 대규모 언어모델(LLM)이 또 다른 우려스러운 용도로 사용된다는 소식을 접했다고 밝혔다. 핵무기 개발을 총괄하는 미군 전략사령관 앤서니 J. 코튼은 작년 한 컨퍼런스에서 AI 도입의 중요성에 대해 연설했다. 그는 핵 전력(nuclear force)를 위해 “인공지능(AI)을 활용한 인간 주도형 의사결정 지원 도구를 개발 중이며, 이는 지도부가 복잡하고 시간에 민감한 시나리오에 잘 대응할 수 있도록 보장하기 위한 것”이라고 말했다. 울프스탈은 걱정되는 점은 AI가 핵전쟁을 일으키는 것이 아니라 "누군가 이 시스템과 그 일부에AI를 도입해 자동화해야 한다고 주장하는 것”이라고 밝혔다. 이렇게 되면 적이 악용할 수 있는 취약점이 생기거나 사람들이 이해할 수 없는 데이터 등이 생성돼 잘못된 결정으로 이어질 수 있다고 지적했다. 핵무기 발사는 한 지도자가 버튼 하나만 누르는 간단한 것이 아니다. 핵 지휘통제체계(NC2 : Nuclear command and control)는 조기 경보 레이더, 위성, 인간이 감시하는 기타 컴퓨터 시스템들이 복잡하게 얽혀 있는 시스템이다. 하지만, 이 과정 중 일부를 AI가 맡게 된다면 문제가 생긴다는 게 그의 설명이다. "핵 공격을 받고 있다는 것을 어떻게 확인할 수 있을까”라며, 핵 공격으로 진짜로 간주되려면 위성과 레이더 시스템 모두에서 확인돼야 하는데 이 중 일부를 AI가 맡게 된다면 안 된다는 게 그의 주장이다. 우리가 많은 AI 시스템이 어떻게 작동하는지 제대로 이해하지 못하고 있기 때문에 AI를 핵 의사결정 과정에 통합하는 것은 좋지 않은 생각이라는 게 전문가들의 주장이다. 밥 라티프는 AI 시스템이 확증 편향을 강화하는 점에 대해 우려를 표했다. "인간이 통제권을 유지한다고 해도, 그 통제가 얼마나 의미 있을지 걱정된다”고 밝혔다.

2025.08.09 08:07이정현 기자

[현장] 육군시험평가단 "기술 발전·저출산 극복, AI 신뢰성 필수"…新 무기 시험체계 구축

"과학기술 발전에 대응하고 인구절벽 시대를 극복하기 위해서는 인공지능(AI)의 신뢰성 확보가 필수적입니다. 이에 우리는 AI 무기체계의 신뢰성을 확보하기 위한 새로운 시험평가 체계를 개발하고 있습니다. AI는 전력화 이후에도 지속적으로 학습하고 성능이 변화하기 때문에 기존의 실물 시험 방식만으로는 충분하지 않습니다." 김강민 육군시험평가단 중령은 4일 경기도 성남시 그래비티 서울 판교 호텔에서 열린 '2025 슈어 AI 테크 컨퍼런스'에서 이같이 말했다. 이날 행사는 슈어소프트테크가 AI 신뢰성·안전성을 위한 시험평가의 현재와 미래를 조망하기 위해 마련한 자리였다. 김 중령은 이날 발표에서 군이 자체적으로 설계한 AI 시험평가 절차, 데이터셋 운영 구조, 향후 추진 계획 등을 소개했다. 그는 AI 기반 무기체계의 신뢰성을 확보하기 위해 기존의 단발성 시험에서 벗어나 반복 가능하고 정량적인 평가 체계로의 전환이 필요하다고 강조했다. 육군의 AI 시험평가 절차는 여러 단계로 구성돼 있다. 먼저 AI 성능평가용 데이터셋을 활용해 기본 성능을 확인하고 보안 검토를 마친 군 전용 데이터를 이용해 추가 학습을 진행한다. 이후 실제 운용 환경에서 수집한 데이터를 기반으로 다시 한 번 성능을 평가한다. 더불어 육군은 수집된 데이터를 학습용과 검증용으로 나눈다. 모델의 성능 향상 여부를 정량적으로 검증하고 마지막으로는 전체 무기체계를 대상으로 체계 수준의 시험평가를 실시하기 위함이다. 이 같은 절차는 AI 모델이 실시간으로 변화하는 특성을 반영하기 위한 구조다. 이 과정에서 가장 중요한 핵심은 시험평가 전용 데이터셋의 품질이다. 군 작전 환경은 민간과 달리 예측 불가능하고 비정형적인 경우가 많아 일반적인 데이터로는 실효성 있는 평가가 어렵기 때문이다. 김 중령은 "우리는 수십만 장 분량의 데이터를 프레임 단위로 정제했다"며 "이 중 일부는 평가용, 나머지 일부는 학습용으로 구성했다"고 설명했다. 이어 "다양한 전술 환경, 객체 자세, 복장, 기상 조건 등을 반영해 실전과 유사한 조건에서 AI 성능을 평가하도록 지원하고 이 데이터셋은 제3기관의 검수를 거쳐 품질 검증도 완료됐다"고 밝혔다. AI 데이터셋의 다변화와 품질 보강을 위한 연구도 병행되고 있다. 김 중령에 따르면 육군은 향후 생성형 멀티모달 AI와 비전-언어 모델(VLM)을 결합해 부족한 데이터 유형을 보강하는 방식을 도입할 계획이다. 일례로, "낮에 걷는 일반 병사의 영상은 풍부하지만 눈 오는 밤에 포복하는 병사의 영상은 부족하다"는 품질 평가 결과를 프롬프트로 삼아 해당 조건을 보완하는 합성 데이터를 생성하겠다는 계획이다. 올해 시험평가단은 AI 무기체계 성능평가를 전담하는 조직을 신설했다. 내년부터는 주요 전력화 사업에 이 평가 절차를 실전 적용할 예정이다. 김 중령은 발표에서 "AI 신뢰성 검증은 단순히 기능 평가가 아니라 작전 환경에서 실제 사용 가능한지를 판단하는 핵심 요건"이라고 강조했다. 이어 "AI가 실물보다 데이터 기반으로 평가돼야 한다는 전환적 인식이 필요하다"고 덧붙였다. AI 강건성 평가 체계도 구체적으로 소개됐다. 이 체계는 AI 모델이 적대적 환경에서도 신뢰할 수 있는 성능을 유지하는지 시나리오별로 검증하고 향후에는 뉴런 커버리지 기반의 내부 구조 분석까지 확대한다. 이는 경량화된 AI 모델이 엣지 디바이스에서 안정적으로 작동해야 하는 군 운용 조건을 반영한 조치다. 김강민 중령은 "지금은 기술이 개념을 끌고 가는 시대"라며 "과거처럼 개념을 먼저 세우고 기술을 따라오게 하는 방식으론 늦다"고 강조했다. 이어 "AI 무기체계는 실물 무기가 아니라 알고리즘의 무기로, 검증과 신뢰 확보는 데이터와 실전 환경이 핵심"이라고 말했다.

2025.06.04 14:42조이환 기자

중국, 세계 첫 'AI 핵탄두 검증기' 개발…美-中 군축협상 흔드나

중국 과학계가 핵무기의 진위를 식별할 수 있는 인공지능(AI) 기반 검증 시스템을 세계 최초로 개발했다. 무기 설계를 노출하지 않고도 핵 보유 여부를 판별할 수 있어 미국 주도의 기존 검증 체계를 흔들 수 있다는 분석도 나온다. 2일 사우스차이나모닝포스트(SCMP)에 따르면 중국원자에너지연구소(CIAE)는 딥러닝 기반 핵탄두 검증 시스템 개발했다. CIAE는 지난 4월 국제 학술지인 '원자과학과 기술(Atomic Energy Science and Technology)'를 통해 이 같은 사실을 공개했다. 이 시스템은 '대화형 영지식 프로토콜 기반 딥러닝 알고리즘 검증 기술'로 명명됐으며 무기급 방사성 물질과 가짜 재료를 구분하는 학습을 마친 상태다. CIAE는 중국 핵기술을 담당하는 국유기업인 중국핵공업집단(CNNC) 산하 연구기관이다. 해당 AI는 중성자 흐름 데이터를 학습해 실제 탄두인지 여부를 식별한다. 몬테카를로 시뮬레이션을 통해 수백만 개의 가상 탄두 데이터를 생성하고 이 데이터를 토대로 다층 딥러닝 구조를 훈련시켰다. 우라늄이 포함된 실제 탄두와 납이나 저농축 우라늄으로 구성된 가짜를 구별할 수 있는 능력을 갖췄다. 더불어 AI가 무기 설계 정보를 알 수 없도록 실제 탄두와 검증 시스템 사이에 400개의 구멍이 뚫린 폴리에틸렌 차폐막이 설치됐다. 이 장치는 탄두의 형상은 숨기고 방사선 신호만 전달하는 역할을 한다. 이같이 AI가 단순히 신호 패턴을 분류하는 역할만 수행해 무기 기밀은 파악하지 못한다는 것이 개발진의 주장이다. 기존 서방국의 정보차단 방식보다 기계적 복잡성을 줄이면서도 동일한 효과를 달성할 수 있다는 것이다. 중국은 이 시스템을 통해 미국 등 기존 핵보유국들이 사용하는 전자식 검증 장비의 한계를 정면으로 겨냥할 수 있게 됐다. 미국, 영국, 러시아가 개발한 기존 시스템은 복잡한 자동화 장치를 필요로 하며 백도어·IT 해킹 가능성 등으로 상호 신뢰를 어렵게 만드는 구조다. 이에 CIAE는 AI 코드를 사전 공동 개발·훈련한 뒤 테스트 전에는 봉인할 수 있도록 했다고 밝혔다. 이번 기술은 미국과 중국이 공동으로 'AI 핵무기 발사 결정 배제'에는 합의했지만 군사 인프라 수준의 AI 도입은 서로 추진하고 있는 현실과 맞닿아 있다. 트럼프 행정부가 제안한 AI 기반 '골든 돔' 방어망 역시 대규모 자동화·지능형 시스템을 포함하고 있어 유사한 흐름으로 해석될 수 있다. 이 AI 검증 기술은 10년 전 미중 과학자들이 공동 제안했던 프로토콜에서 출발했다. 핵군축이라는 정치적 사안의 기술적 기반을 중국이 먼저 실현한 셈이다. 다만 군 지도부의 기술 유출 우려, 국제사회 신뢰 확보 등 후속 과제가 남아 있어 실제 실전 적용까지는 시간이 필요하다는 평가다. SCMP는 "중국은 자국의 핵탄두 보유량이 미국보다 적다는 점을 이유로 군축 협상을 거부해왔다"며 "기존 검증 방식에 대한 불신도 협상 회피의 배경으로 작용했다"고 전했다. 이어 "이번 기술이 교착 상태에 빠진 군축 협상에서 중국의 입장을 강화할 수 있다"고 전망했다.

2025.06.02 10:02조이환 기자

[인터뷰] 쉴드AI 브랜든 쳉 "AI, 핵 대신할 억지력…한국에 '자율 툴킷' 제공할 것"

"네이비 씰(Navy SEALs) 복무 당시의 실전 경험에서 출발해 10년 이상 인공지능(AI)·자율 시스템 개발에 집중해왔습니다. 구조적 설계를 중시한 아키텍처를 바탕으로 한국 방산 기업들이 군사 AI를 독자적으로 구축하도록 지원하고 있습니다. 이는 병력 감소 시대에 지속 가능한 전력을 유지할 수 있는 현실적 해법이자 전쟁을 막는 강력한 억지 수단입니다." 브랜든 쳉 쉴드AI 공동창업자 겸 사장은 지난 29일 서울시 강남구 퀀텀에어로 본사에서 지디넷코리아와 만나 AI·자율 무기의 전쟁 억지력과 주권형 자율성 실현방안에 대해 이같이 말했다. 30일 업계에 따르면 국방 분야에서 AI·자율 시스템의 중요성이 급격히 부각되는 가운데 쉴드AI는 확장 가능한 자율 시스템 아키텍처를 강점으로 내세우고 있다. 이 회사의 기술을 총괄하는 네이선 마이클 최고기술책임자(CTO)는 카네기멜론대 로봇연구소 출신으로, 지난 15년간 자율성 기술을 연구해온 인물이다. 회사는 그가 강조한 '구조 설계가 전부'라는 원칙을 바탕으로 자율 플랫폼을 구축하고 있다. 쉴드AI는 자율 시스템의 상태 추정, 매핑, 장면 이해, 추론, 경로 계획, 제어 등 전체 구성 요소를 수직 통합해 자체 개발하는 역량을 갖추고 있다. 이를 바탕으로 다양한 플랫폼에 자율성을 탑재해왔다. 이 기술의 중심에는 모듈형 AI 자율성 플랫폼인 '하이브마인드 엔터프라이즈(Hivemind Enterprise)'가 있다. 하이브마인드는 신속한 개발, 범용 확장성, 사용자 소유권 구조를 바탕으로 기업들이 자율성을 직접 구축·내재화할 수 있도록 지원한다. 이 플랫폼이 적용된 대표 사례가 수직이착륙 무인기 '브이배트(V-BAT)'다. '브이배트'는 도심 옥상이나 소형 함정에서도 운용 가능한 기동성, 전자전 환경에서의 작전 능력, 정찰·표적 지정 임무 수행 능력을 갖춘 전술 드론이다. 대형 드론 대비 비용·물류 부담이 적으면서도 효과가 입증돼 미국 및 동맹국 군이 전력화 중이다. 쳉 공동창업자는 미국 해군사관학교에서 기계공학을 전공하고 특수부대 네이비 씰을 거쳐 하버드 MBA를 밟은 엘리트 커리어를 밟아왔다. 복무 중이던 지난 2010년대에 AI와 자율성 기술에 빠졌고 지난 1990년대 인터넷 도입기와 유사한 기술 전환점을 목격했다. 닷컴 시대의 IT 기업가들처럼 시대 전환을 몸으로 겪고 싶어 지난 2015년에 형인 라이언 쳉, 지인인 앤드류 라이터와 창업을 결심했다. 그는 "테크 기업가였던 형의 권유로 AI 기술에 관심을 가지게 됐다"며 "이와 동시에 군인으로서 전쟁을 억제하고 평화를 실현하는 것이 내가 진정 가치를 느끼는 유일한 문제라고 느꼈다"고 말했다. 이어 "성공하거나 실패하거나 시도할 가치가 있는 목표라고 생각했다"고 말했다. 이번 방한을 통해 쳉 공동창업자는 쉴드AI의 국내 기술 협력 확대를 공식화했다. 그는 LIG넥스원, 한국항공우주산업(KAI), 퀀텀에어로 등 방산 기업은 물론 국회와 주한미군 관계자, 한국군 고위 인사들을 두루 만났다. 한국에 대해서는 확실한 거점 확대 계획을 갖고 있다. 쉴드에이는 한국 지사를 세울 계획으로, 현재는 퀀텀에어로와 협력 중이다. 국군 외에도 LIG넥스원, KAI 등과도 기술 협력을 추진 중이다. 기업 협력의 핵심은 완제품 제공이 아닌 '하이브마인드 엔터프라이즈' 플랫폼을 통한 자율 기술의 내재화다. 쳉 공동창업자는 '주권 자율성'을 강조했다. 이는 쉴드AI가 타국 기업에게 독립적으로 AI 파일럿 같은 자율 시스템을 자체 개발하고 소유하는 구조를 제공한다는 의미다. 사용자는 플랫폼을 통해 기술을 구현하되 결과물에 대한 지식재산권은 전적으로 해당 기업이 보유한다. 한국이 직면한 인구 감소 문제와 관련해서는 자율성이 결정적 해법이 될 수 있다고 봤다. 병력 감소에도 불구하고 자율 시스템의 확장으로 전력 유지를 실현할 수 있다는 설명이다. 그는 "이제 핵심은 사람을 얼마나 확보하느냐가 아니라 시스템을 얼마나 생산할 수 있느냐"라며 "이는 제조 기반이 탄탄한 한국에 유리한 구조"라고 평가했다. 자율 무기의 윤리 문제에 대해선 분명한 선을 그었다. 살상력 사용 여부는 반드시 인간이 판단해야 한다는 것이다. 미국과 북대서양조약기구(NATO) 역시 같은 기준을 따르고 있으며 쳉 공동창업자 본인의 참전 경험도 이러한 원칙의 기반이 됐다. 일각의 우려와 달리 쳉 공동창업자는 자율 무기가 오히려 가장 효과적인 재래식 억지력(Conventional Deterrence) 수단이 될 수 있다고 강조했다. 일례로 우크라이나에 지난 2022년 수백만 대 드론이 국경에 있었으면 러시아는 침공하지 못했을 것이라며 AI를 통한 대규모 '무력 시위'가 침공 자체를 억제할 수 있다고 주장했다. 브랜든 쳉 쉴드AI 공동창업자는 "AI는 핵무기와는 전혀 다른 차원의 억지력이며 향후 100년간 가장 중요한 전략 자산이 될 것"이라며 "침공을 막는 가장 실질적 수단은 보여줄 수 있는 힘"이라고 말했다. 다음은 브랜든 쳉 공동창업자와 일문일답. Q. 해군사관학교, 네이비 씰, 하버드 MBA까지 이어지는 매우 이례적인 엘리트 경력을 가지고 있다. 지난 2015년, 아직 아무도 AI에 대해 이야기하지 않던 시점에 형제, 동료와 함께 쉴드AI를 창업한 근본적인 동기가 궁금하다. A. 사실 이 커리어를 처음부터 다 설계한 것은 아니다. 처음에는 단지 네이비 씰이 되고 싶었다. 나는 기계공학을 전공했다. 어릴 때부터 기술에 관심이 많았다. 파퓰러 사이언스(Popular Science), 파퓰러 메카닉스(Popular Mechanics) 같은 잡지를 읽으며 자랐다. 형은 기술 기업을 창업해 퀄컴에 매각한 기술 기업가였고 지난 2013~2015년 사이에 내게 AI와 자율성(Autonomous) 기술에 대해 읽어보라고 권했다. 그는 퀄컴 재직 시절 삼성과 무선 전력 분야에서 협업하며 한국에도 자주 왔다. 당시 나는 네이비 씰에 있었고 그때부터 AI와 자율성에 대해 집중적으로 읽기 시작했다. 그 결과 이 두 기술이 인터넷보다 더 큰 변화가 될 거라고 확신하게 됐다. 나는 지난 1990년대 인터넷이 등장하던 시기를 직접 겪었고 1996년엔 나만의 웹사이트도 운영했다. 그때와 마찬가지로 다음 기술적 전환점이 무엇인지 자문했고 그것이 바로 AI와 자율성이라고 판단했다. 피터 틸, 제프 베조스와 같은 인터넷 시대의 젊은 창업가들이 겪었던 변화를 AI 시대에 직접 경험하고 싶었다. 또 창업을 하고 싶다는 욕구도 있었다. 아버지는 소기업을 운영하셨고 형도 창업가였다. 어떤 문제를 해결할 수 있을지 스스로에게 계속 질문했고 결국 군 복무 중 겪은 문제들로 되돌아가게 됐다. 씰 팀에서는 불평하지 말라고 교육받는다. 이 때문인지 몰라도 일반적인 B2C 문제에는 관심이 없었고 비즈니스 문제에 대한 경험도 없었다. 결국 다시 군에서 겪은 문제들, 즉 국가 안보와 세계 평화 문제로 귀결됐다. 향후 2035년의 군대에서 AI와 자율성이 어떤 역할을 해야 할지를 고민했다. 결론은 명확했다. AI는 모든 시스템, 즉 함정, 잠수함, 항공기 등을 구동해야 하며 인간을 능가하는 성능(Superhuman Performance)을 낼 수 있다고 판단했다. 또 하나의 중요한 동기는 일론 머스크의 문제 정의 방식이다. 당시 그는 인터넷, 지속가능 에너지, 우주 탐사라는 큰 문제를 선택해 사업화했다. 나도 마찬가지로 "내가 동기 부여를 느끼는 해결할 수 있는 큰 문제는 무엇인가"를 자문했다. 그 답은 전쟁의 억제였다. 전쟁은 여전히 수백만 명에게 영향을 미치는 문제지만 일론 머스크나 제프 베조스 같은 인물도 다루지 않고 있었다. 그렇다면 누군가는 이 문제를 직접 해결하려고 시도해야 한다고 생각했다. 전쟁을 억제할 수 있는 기술을 만든다면 성공 여부와 무관하게 시도 자체로 가치가 있다고 봤다. Q. 앞서 창업 동기에 대해 설명해주었다. 그렇다면 현재 쉴드AI가 보유한 핵심 기술 역량은 무엇인가? A. 쉴드AI의 가장 큰 기술적 강점은 자율 시스템 아키텍처에 대한 이해와 그것을 구현하는 능력이다. 우리 최고기술책임자(CTO)인 네이선 마이클 박사는 쉴드AI에 합류하기 전까지 15년간 자율 시스템을 연구해왔다. 그는 카네기멜론대(CMU) 로봇 연구소에서 교수로 재직하며 해당 대학 내 최대 규모의 교수 주도 연구실인 복원력 지능 시스템 연구실(Resilient Intelligent systems Lab)을 운영했다. CMU는 지난 10년간 AI와 자율성 분야에서 미국 내 1위를 차지해온 기관이다. 우리가 자율 시스템을 어떻게 구축할지 고민하던 시기 관련 논문을 수없이 검토했는데 그 중 상당수에서 네이선의 이름을 발견했다. 지난 2016년에 그를 만나 자문을 받기 시작했고 2017년에 정식으로 합류시킬 수 있었다. 처음에는 최고과학책임자(CSO)로, 이후에는 최고기술책임자(CTO)가 되었다. 네이선이 강조한 것은 자율 시스템의 '아키텍처'가 전부라는 점이다. 이는 마치 초고층 빌딩을 짓는 일과 같다. 설계가 잘못되면 구조적으로 100층짜리 빌딩을 세울 수 없듯 잘못된 아키텍처 위에서는 복원력 있고 지능적인 자율 시스템을 만들 수 없다. 많은 자율주행 회사들이 실패한 것도 이 때문이다. 방위산업 분야에서는 이런 시도가 많지 않았지만 우리는 설계부터 제대로 시작했고 그 덕분에 지금까지 확장 가능한 자율 시스템을 구축할 수 있었다고 본다. Q. 쉴드AI가 자체적인 AI 모델이나 칩을 개발하고 있는지 궁금하다. 또 많은 프런티어 AI 기업들이 서로 협력을 하고 이를 공식적으로 발표하는데 이런 형태의 협력 관계가 있는가? A. 쉴드AI는 AI와 자율성을 직접 구축할 수 있는 역량을 갖추고 있다. 지난 2015년부터 그 일을 해오고 있기 때문이다. 자율 시스템은 기본적으로 지각(Perception), 인지(Cognition), 행동(Action)으로 구성된다. 인간이 감각으로 세상을 인식하고 뇌로 판단한 후, 근육과 골격을 움직이는 방식과 같다. 자율주행차, 휴머노이드 로봇, 그리고 우리 '하이브마인드' 기반 무인 시스템 모두 동일한 구조로 작동한다. 세부적으로는 상태 추정(State Estimation), 매핑(Mapping), 장면 이해(Scene Understanding), 추론(Reasoning), 경로 계획(Path Planning), 제어(Control) 같은 모듈들이 있으며 대학이나 연구기관에 따라 명칭은 조금 다르지만 원리는 동일하다. 우리는 이 전반을 다룰 수 있는 기술을 보유하고 있고 그걸 계속 구축해왔다. 외부 기업들과의 협력 관계에 대해 구체적으로 누구와 어떤 일을 하고 있는지는 말하긴 어렵지만 그런 협력의 이점이 있다는 점은 인정한다. 다만 우리가 다른 기업들과 협력할 때는 매우 신중하게 접근한다. 단순한 보여주기식 제휴는 하지 않는다. 어떤 기업들은 존재감을 부각하기 위해 협력 발표를 하기도 한다. 쉴드AI는 그런 방식을 쓰지 않는다. 우리가 어떤 파트너십을 맺거나 공식 발표를 할 때는 그 뒤에 실제 의미와 실질적인 목적이 반드시 존재한다. Q. 이번 방한 기간 동안 어떤 활동을 했는가? 지금까지 어떤 한국 인사들을 만났고 어떤 한국 기업들과 접촉했는지 궁금하다. A. 방한 중 LIG넥스원과 한국항공우주산업(KAI)의 고위 경영진을 비롯해 여러 한국 기업들과 만났다. 국제해양방위산업전(MADEX) 행사 부스에 참가해 많은 기업들이 방문했지만 내가 모든 미팅에 직접 참석하진 않았다. 대신 우리 팀이 대부분의 회의에 참여했다. 한국군과 주한미군의 고위 관계자들도 만났고 국회와도 면담을 가졌다. 만난 사람과 기관이 많아 전체 리스트를 다 기억하긴 어렵다. Q. 현재 퀀텀에어로, LIG넥스원 등과는 어떤 방식으로 협력하고 있는가? 또 한국에 지역 사무소를 설립할 계획이 있는지도 함께 듣고 싶다. A. 향후에 한국에 지사를 설립하는 것은 100% 확정된 사항이다. 이미 우리는 퀀텀에어로와 협력 중이며 지금 있는 이 퀀텀에어로 사무실에도 오늘 오전 쉴드AI 엔지니어가 함께 있었다. 향후에도 한국 내 거점을 확대해나갈 계획이다. 한국 기업들과 협력해 그들이 자율성을 스스로 개발하고 내재화할 수 있도록 역량을 강화하는 것이 핵심 목표다. 물론 한국군과는 우리의 항공기인 '브이배트' 관련 협력도 하고 있다. 다만 LIG나 KAI와 같은 기업들과의 협력은 조금 다른 성격이다. 이들은 자체적으로 자율성 기술을 개발하고 이를 수익화하며 고객 시장에 내놓는 걸 목표로 하고 있다. 우리는 이들이 그걸 실현할 수 있도록 '하이브마인드 엔터프라이즈' 플랫폼을 통해 기술적으로 지원하고 있다. Q. 한국은 소버린 AI(Sovereign AI)에 큰 관심을 보이고 있다. 주권형 AI가 가능한지, 어떻게 달성할 수 있을지에 대한 관심이 높다. 이에 대해 쉴드AI는 어떤 관점을 가지고 있으며 한국의 소버린 AI 구축에 어떤 기여를 할 수 있다고 보는가? A. 쉴드AI는 '주권형 자율성(Sovereign Autonomy)' 구축을 위한 도구와 인프라를 제공하는 데 집중하고 있다. '하이브마인드 엔터프라이즈'는 일종의 공구 세트다. 주권형 자율성을 구축하기 위한 망치, 렌치, 드라이버 같은 역할을 한다. 우리는 LIG넥스원이나 KAI에 '주권형 자율성' 기술을 완성품 형태로 판매하려는 것이 아니다. 그들이 자율 시스템, 일례로 AI 파일럿을 스스로 개발할 수 있도록 도구와 기반을 제공하는 것이다. 장기적으로는 보다 많은 한국 기업들과 협력해 각자가 독자적인 자율 시스템을 개발하고 내재화할 수 있게 하는 것이 목표다. 그 과정에서 만들어지는 지식재산권(IP)은 해당 한국 기업들이 전적으로 소유하게 된다. 일례로 마이크로소프트(MS) 워드를 사용해 문서를 작성한다고 해서 문서 소유권이 마이크로소프트에 있지 않듯 '하이브마인드'로 구축한 자율성 기술은 사용자 기업이 소유하게 된다. 이것이 우리가 생각하는 주권형 자율성의 실질적 의미다. Q. 한국은 징병제를 유지하고 있는 동시에 출산율 0.78이라는 극단적인 인구 구조를 안고 있다. AI와 자율 시스템은 이같은 인구 구조 문제를 완화할 수 있는 핵심 수단이 될 수 있다. 쉴드AI는 인간 병력과 AI 전력을 어떻게 조합해가는 '하이-로우 믹스' 전략을 구상하고 있는가? A. 핵심은 인간과 기계의 팀 구성, 즉 '휴먼-머신 팀'이라고 본다. 어제 들은 바로는 현재 한국의 병력 규모는 약 50만~60만 명 수준인데 출산율 문제로 향후 10년 내 30만 명 수준으로 감소할 것이라고 한다. 전통적으로 보면 군사력의 절반이 줄어드는 셈이다. 그럼에도 자율성과 로보틱스를 활용하면 인구 감소에도 불구하고 동일한 수준의 전력을 유지할 수 있다. 이런 의미에서 자율성의 가장 큰 전략적 이점은 병력 숫자에 의해 제한되지 않는다는 점이다. 이제는 "얼마나 많은 인력을 확보하느냐"가 아니라 "얼마나 많은 시스템을 생산할 수 있느냐"가 핵심이다. 다행히도 한국은 이미 강력한 산업 기반과 제조 역량을 입증해왔다. 자율성을 받아들인다면 이 산업 기반과 결합해 한국은 충분히 대응 가능한 구조를 만들 수 있다고 본다. Q. 군사 AI를 논의할 때마다 윤리와 안전 문제가 함께 제기된다. 구체적으로 AI의 '전략 수립'과 '목표 설정 및 조준'은 분명히 다른 차원의 문제다. 쉴드AI는 AI의 자율적 판단을 어디까지 허용하고 어떤 지점에서 인간의 개입(Human-in-the-Loop)이 반드시 필요하다고 보는가? A. 살상력(Lethal Force)의 사용 여부는 반드시 인간이 판단해야 한다고 본다. 나는 과거 네이비실 팀에서 전장에서 살상력을 사용할지 여부를 스스로 결정해야 했던 경험이 있다. 그 경험을 바탕으로, 이런 결정은 인간이 도덕적으로 내려야 한다고 확신한다. 이것이 쉴드AI의 정책이고 미국의 정책이며 나토(NATO)의 정책이다. 아마도 한국 역시 같은 기준을 따르고 있을 것이다. 이 원칙이 의미하는 바는 명확하다. 자율 시스템이 어떤 대상을 공격하거나 파괴할 수 있는 상황이 오면 반드시 사전에 인간의 승인을 요청해야 한다. 우리는 이 방식으로 자율성과 윤리적 통제 간 균형을 유지하고 있다. Q. 고(故) 헨리 키신저는 AI 무기가 핵무기와는 전혀 다른 패러다임이며 선제적이고 비가역적인 전쟁을 촉발할 수 있다고 경고했다. 쉴드AI는 이러한 우려에 대해 어떤 입장을 가지고 있으며 이에 대한 기술·정책적 대비는 어떻게 하고 있는가? A. 오히려 나는 AI 및 자율성은 향후 100년 동안 가장 중요한 '재래식 억지력(Conventional Deterrence)'이 될 것이라고 본다. 우크라이나에서 '브이배트'를 운용 중인 이용자들과 대화해 보면 모두가 "지금 가진 능력을 3년 전에 갖고 있었다면 러시아가 국경을 넘지 못했을 것"이라고 말한다. 국경 상공에 드론 스웜을 수백만 대 수준으로 띄울 수 있었다면 침공 자체를 억제했을 것이란 얘기다. 구체적으로 이름을 밝힐 수 없지만 우리는 이같은 사명을 위해 현재 여러 국가와 협력 중이다. 내가 볼때 억지력의 본질은 우리가 가진 힘을 보여주는 '무력시위(Show of Force)'에 있다. 생각해보라. 미국은 분쟁지역의 연안에 항모 전단을 보내 무력을 과시한다. 상대국을 위축시켜 분쟁이 타국에 확산되는 것을 억제하는 것이다. 이제 국가들이 만약 자율 드론 수백만 대를 전개할 수 있는 능력을 가진다면 이는 침략자에 대한 엄청난 억지력으로 작용할 것이다. 이에 나는 AI가 가장 훌륭한 재래식 전략 억지력이 될 것이라고 믿는다.

2025.05.30 15:12조이환 기자

北 김정은, AI 자폭드론 참관…러 지원 가능성↑

북한이 인공지능(AI)을 탑재한 자폭 드론 생산 확대를 추진 중인 것으로 알려졌다. 28일 BBC 등 외신에 따르면 김정은 북한 국무위원장은 AI 기반 무기 체계를 본격화한 것으로 전해졌다. 조선중앙통신은 김 위원장이 활주로에서 AI 자폭 드론을 둘러보는 사진도 공개했다. 북한은 지난해 8월 AI 자폭 드론을 처음 공개했다. 이 드론은 '로이터링 무기'로 분류되며 목표물에 돌진해 자폭하는 방식으로 작동한다. 외신은 해당 드론이 러시아 기술 지원을 받은 것이라고 분석했다. 북한이 최근 병력을 러시아에 파견하는 등 양국 간 군사 협력을 강화한 모습을 보여서다. 앞서 북한은 지난해 블라디미르 푸틴 대통령과 상호 방위 협정을 체결한 바 있다. 지난달 북한이 러시아 쿠르스크 전선에 병력을 재배치했다는 보도도 이어졌다. 이 외에도 북한은 조기경보기로 추정되는 항공기도 사진을 통해 공개했다. 해당 기체는 민항기 형태로 전투 지역 상공에서 레이더로 정세를 파악할 수 있다. 미국 코넬대 제임스 패튼 로저스 브룩스 기술정책연구소 소장은 "북한이 군사 전략을 드론 중심으로 재편하고 있다"며 "AI 무기 알고리즘이 불안정하면 한반도 안보 상황이 우발적으로 악화될 수 있다"고 밝혔다.

2025.03.28 10:08김미정 기자

"10년 뒤 인류 멸망할 수 있다"…국내 1세대 AI 연구자, 섬뜩한 발언한 이유는

"미국 트럼프 행정부가 들어서면서 인공지능(AI) 안전보다 발전에 더 주안점을 두기 시작했다는 점이 우려됩니다. 이렇게 되면 10년 뒤에 인류는 멸망할 수 있습니다." 한상기 테크프론티어 대표는 최근 서울 강남구 모두의연구소 강남캠퍼스에서 진행된 '국방 인공지능 혁신 네트워크' 행사에 연사로 참석해 이처럼 강조했다. 한 대표는 서울대 컴퓨터공학과를 졸업하고 카이스트에서 전산학 석·박사를 마친 국내 1세대 AI 연구자다. 이날 'AI 안전 : 주요 토픽과 해결할 문제들'이란 주제로 발표에 나선 한 대표는 최근 범용인공지능(AGI)의 능력이 향상되면서 추가적인 리스크들이 점진적으로 나타나는 것에 대해 우려를 표했다. 20일 업계에 따르면 AI는 고도화 수준에 따라 '제한적 인공지능(ANI)', 'AGI', 'ASI'로 구분한다. 이 중 AGI는 ANI인 오픈AI '챗GPT'나 구글 '제미나이'와 달리 사전 학습된 데이터와 알고리즘에 의존하지 않고도 새로운 문제를 분석하고 해결책을 제시할 수 있는 AI다. 인간 수준의 일반 지능을 갖추고 논리력과 창의적 추론 능력을 보유한 AI로 설명된다. 추론 능력이 향상된 오픈AI의 최신 모델 'o1', 'o3' 등은 ANI에서 AGI로 이행하는 단계에 있다는 평가를 받는다. 그 다음 단계인 ASI는 인간을 뛰어넘는 지적 능력을 갖춘 AI를 의미한다. 스스로 목표를 설정하고 개선하는 능력이 탁월해 인간이 상상할 수 없는 수준의 복잡한 문제를 창의적으로 해결할 수 있다. AI 간의 자발적 소통이 가능해 인류가 전유물로 여겨온 '집단 지성'도 구현할 수 있다. 한 대표는 "데미스 하사비스 구글 딥마인드 최고경영자(CEO)는 5년, 다리오 아모데이 앤트로픽 CEO는 2~3년 안에 AGI 시대가 올 것이라고 얘기하고 있다"며 "적어도 10년 안에 온다고 보면 이에 대한 (안전성과 관련해) 대비를 해 나갈 필요가 있다"고 강조했다. 또 한 대표는 AI를 '핵무기' 수준으로 봐야 한다고 강조하며 AI 발전과 함께 안전성도 같이 고려해 나가야 한다고 주장했다. 그는 "최근 앤트로픽 클로드 3.7이나 오픈AI o3 같은 모델들이 출시되면서 인터넷에 존재하지 않는 정보를 추론 능력으로 답변을 만들어지는 사례들이 늘어나고 있다"며 "생화학 무기, 핵무기 등에 이 같은 AI가 사용되기 시작할 경우 안전성이 확보되지 않으면 큰 문제가 될 것"이라고 지적했다. 그러면서 "이제는 AI 모델뿐 아니라 시스템, 애플리케이션까지 확대해 AI와 관련된 범죄 가능성에 대해 고민해봐야 할 시점"이라며 "영국 등에선 이미 안전성뿐 아니라 국가안보적인 관점에서 AI를 들여다 보기 시작했다는 점에서 우리나라도 함께 고민해 봐야 할 것"이라고 덧붙였다. 이날 '딥시크를 포함한 추론형 AI에 대한 이해'를 주제로 강연에 나선 이진원 하이퍼엑셀 CTO는 AI가 점차 발전하면서 인간이 통제할 수 있는 영역을 점차 벗어나고 있다는 점을 주목했다. 또 앞으로는 AI가 AI를 컨트롤하는 방향으로 기술 발전을 해 나가야 하지만 데이터가 AI 발전 속도를 따라가지 못하고 있다는 점에서 우려를 표했다. 더불어 이 CTO는 오픈AI가 생각하는 AI 5단계를 소개하며 현재 AI가 ANI에서 AGI로 넘어가는 과정에서 데이터 학습량을 더 늘리기 위해 엔비디아가 그래픽처리장치(GPU)를 더 크게 만들 필요가 있다는 점도 강조했다. 이 CTO는 "딥시크처럼 저렴한 모델들이 나오면서 앞으로 AI가 실제 산업에 더 다양하게 활용될 것으로 보인다"며 "GPU 수요는 앞으로 더 폭발적으로 늘어날 것으로 보인다"고 관측했다. 이어 "딥시크 같은 기업들이 속속 나오고 있지만 오픈AI, 구글 등 빅테크의 AI 기술력을 따라가기에는 쉽지 않을 것"이라며 "다만 우리나라가 AI 경쟁력을 키우기 위해선 중국 딥시크 같은 모델을 벤치마킹해야 한다"고 주장했다. 이날 행사에선 국방기술진흥연구소 박삼준 AI PD와 김일환 삼성SDS 그룹장, 최민석 ETRI AI 안전연구소 박사 등이 참여한 패널 토의도 '국방분야 생성형 AI 도입 및 활용 방향'을 주제로 진행됐다. 각 패널들은 AI의 통제력 상실을 막지 않으면 국방분야에 생성형 AI를 도입하는 것이 쉽지 않을 것으로 봤다. 최 박사는 "무기 체계가 알고리즘으로 움직여지는 상황에서 사람 통제를 벗어나 (AI를 통해) 자의적으로 움직여질 경우 상대뿐 아니라 우리에게도 그 피해가 발생할 것이란 점이 우려된다"며 "이를 막기 위해 여러 단계의 안전장치를 고려해야 하지 않을까 싶다"고 강조했다. 김 그룹장은 우리나라가 국방 분야에서 AI를 활용하기 위해선 양질의 데이터를 안전하게 확보하는 동시에 클라우드로 전환하는 것이 가장 중요하다고 주장했다. 또 미군이 팔란티어와 손잡고 국방 전 분야를 클라우드로 전환해 활용하는 사례를 들어 우리나라도 클라우드로 점차 전환해 나갈 필요가 있다고 지적했다. 현재 미군은 팔란티어의 SaaS(클라우드 기반 서비스형 SW)를 구독해 매일 시스템을 업데이트 하고 활용하고 있다. 김 그룹장은 "우리 군 역시 JADC2(합동 전 영역 동시통합지휘통제) 등을 추진하며 국방 AI에 대한 구체적인 계획을 가지고 있는 것으로 안다"며 "이를 실행하기 위해선 예산 확보가 필수적으로, 이 문제만 해결되면 우리나라군도 굉장히 빠르게 (미군 수준으로) 따라갈 수 있을 것이라고 생각한다"고 말했다.

2025.03.20 17:13장유미 기자

"국가 안보 고려"…구글, AI 원칙서 '무기 개발 금지' 문구 삭제

구글이 인공지능(AI)을 무기 개발과 감시에 활용하지 않겠다는 서약을 자사 웹사이트에서 삭제해 AI의 군사적 이용 가능성을 둘러싼 논란이 불거지고 있다. 5일 테크크런치 등 외신에 따르면 구글은 최근 AI 원칙 페이지를 개정하면서 '추구하지 않을 기술(applications we will not pursue)' 목록을 삭제했다. 이 목록에는 AI의 무기화 및 감시 기술 개발을 하지 않겠다는 내용이 포함돼 있었으나 현재는 찾아볼 수 없다. 구글은 이번 변경에 대한 공식 입장을 내놓지 않았다. 다만 내부 블로그를 통해 "국가 안보를 지원하는 AI를 만들기 위해 같은 가치를 공유하는 기업, 정부, 조직들이 협력해야 한다고 믿는다"며 "책임 있는 AI 개발을 위해 국제법과 인권 원칙을 준수할 것"이라고 밝혔다. 최근 구글은 미군 및 이스라엘 군과의 클라우드 서비스 계약을 체결하면서 내부 직원들의 반발을 산 바 있다. 지난 2018년에도 미 국방부 프로젝트 '메이븐(Maven)' 참여로 인해 내부 논란이 발생해 이후 AI 무기 개발을 하지 않겠다고 선언했다. 테크크런치는 "구글은 지속적으로 자사 AI가 인간을 해치는데 사용되지 않는다고 주장해 왔다"면서도 "다만 미군 AI 책임자가 최근 일부 기업의 AI 모델이 '킬 체인'을 가속화하고 있다고 밝힌 바 있다"고 설명했다.

2025.02.05 10:08조이환 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

카카오, 'AI 수익화 원년' 칼 뺐다...구글·오픈AI 스킬 장착

"다시 3N, 날아오른 K"…신작 흥행이 가른 게임사 실적

아동 정보까지 건드렸다...'버거킹'·'메가커피' 과징금 집중된 이유

삼성전자, 최대 속도 13Gbps급 HBM4 세계 최초 양산 출하

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.