• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'무기'통합검색 결과 입니다. (29건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

中 휴대형 레이저 무기 무섭네…"1km 떨어진 드론 공격 가능"

중국 과학자들이 극한 온도에서도 작동하는 2킬로와트(kW) 휴대용 광섬유 레이저 무기를 개발했다고 과학전문매체 인터레스팅엔지니어링이 최근 보도했다. 이 새로운 레이저 기술은 영하 50도~영상 50도 사이 온도에서 작동해 냉난방 시스템이 필요 없다. 추운 북극에서 더운 사하라 사막까지 지구상 어디에서나 별도 인프라 없이 사용할 수 있는 것이 특징이다. 현재 이 정도 출력의 레이저 장비는 대부분 과열이나 동결 방지를 위해 거대한 냉·난방 장치가 필요하다. 때문에, 이 내용이 사실이라면 아주 놀라운 업적이라고 해당 매체는 전했다. 이번 연구를 주도한 중국 국방과학기술대학 첸 진바오 부총장은 "광범위 온도에서 작동하는 광섬유 레이저 성능에 기술적 혁신을 이루었다"고 밝혔다. 중국 사우스차이나모닝포스트(SCMP)에 따르면, 이 레이저는 여러 혁신 기술을 활용해서 개발됐다. 우선 새로운 펌프 레이저 설계를 통해 열이 덜 나오도록 했고 또, 열에 민감한 부품을 중심 레이저 구멍 밖으로 이동시켜 온도 영향으로부터 보호했다. 중요한 것은 희토류 원소 중 하나인 이터븀을 섞어 광섬유 코어를 만든 이터븀 도핑광섬유 코어(ytterbium-doped fibre core) 기술이다. 이터븀은 중국에 풍부한 희토류 금속으로, 넓은 온도 범위를 처리할 수 있어 레이저 기술에 아주 적합해 에너지를 레이저 광으로 효율적으로 변환할 수 있다. 이 기술들을 합쳐 연구진은 섭씨 20도에서 거의 완벽한 레이저 빔 품질을 갖춘 최대 출력 2.47kW의 레이저를 개발했다. 이는 1km 이상 떨어진 곳에서 드론을 무력화하고 다양한 재료를 절단할 수 있는 충분한 출력이다. 이 레이저 기술은 가방에 넣을 수 있을 만큼 휴대성이 뛰어나 이동형 부대나 드론, 또는 전장에서 사용하기에 이상적이다. 군사적 용도 외에도 정밀 절단, 용접 등 다양한 산업 분야에도 유용할 수 있다. 게다가 중국은 전 세계 이터븀 공급의 대부분을 장악하고 있기 때문에 이 기술 분야에서 중국이 유리한 위치를 차지하게 되는 셈이라고 해당 매체는 전했다.

2025.06.26 08:53이정현

[현장] 육군시험평가단 "기술 발전·저출산 극복, AI 신뢰성 필수"…新 무기 시험체계 구축

"과학기술 발전에 대응하고 인구절벽 시대를 극복하기 위해서는 인공지능(AI)의 신뢰성 확보가 필수적입니다. 이에 우리는 AI 무기체계의 신뢰성을 확보하기 위한 새로운 시험평가 체계를 개발하고 있습니다. AI는 전력화 이후에도 지속적으로 학습하고 성능이 변화하기 때문에 기존의 실물 시험 방식만으로는 충분하지 않습니다." 김강민 육군시험평가단 중령은 4일 경기도 성남시 그래비티 서울 판교 호텔에서 열린 '2025 슈어 AI 테크 컨퍼런스'에서 이같이 말했다. 이날 행사는 슈어소프트테크가 AI 신뢰성·안전성을 위한 시험평가의 현재와 미래를 조망하기 위해 마련한 자리였다. 김 중령은 이날 발표에서 군이 자체적으로 설계한 AI 시험평가 절차, 데이터셋 운영 구조, 향후 추진 계획 등을 소개했다. 그는 AI 기반 무기체계의 신뢰성을 확보하기 위해 기존의 단발성 시험에서 벗어나 반복 가능하고 정량적인 평가 체계로의 전환이 필요하다고 강조했다. 육군의 AI 시험평가 절차는 여러 단계로 구성돼 있다. 먼저 AI 성능평가용 데이터셋을 활용해 기본 성능을 확인하고 보안 검토를 마친 군 전용 데이터를 이용해 추가 학습을 진행한다. 이후 실제 운용 환경에서 수집한 데이터를 기반으로 다시 한 번 성능을 평가한다. 더불어 육군은 수집된 데이터를 학습용과 검증용으로 나눈다. 모델의 성능 향상 여부를 정량적으로 검증하고 마지막으로는 전체 무기체계를 대상으로 체계 수준의 시험평가를 실시하기 위함이다. 이 같은 절차는 AI 모델이 실시간으로 변화하는 특성을 반영하기 위한 구조다. 이 과정에서 가장 중요한 핵심은 시험평가 전용 데이터셋의 품질이다. 군 작전 환경은 민간과 달리 예측 불가능하고 비정형적인 경우가 많아 일반적인 데이터로는 실효성 있는 평가가 어렵기 때문이다. 김 중령은 "우리는 수십만 장 분량의 데이터를 프레임 단위로 정제했다"며 "이 중 일부는 평가용, 나머지 일부는 학습용으로 구성했다"고 설명했다. 이어 "다양한 전술 환경, 객체 자세, 복장, 기상 조건 등을 반영해 실전과 유사한 조건에서 AI 성능을 평가하도록 지원하고 이 데이터셋은 제3기관의 검수를 거쳐 품질 검증도 완료됐다"고 밝혔다. AI 데이터셋의 다변화와 품질 보강을 위한 연구도 병행되고 있다. 김 중령에 따르면 육군은 향후 생성형 멀티모달 AI와 비전-언어 모델(VLM)을 결합해 부족한 데이터 유형을 보강하는 방식을 도입할 계획이다. 일례로, "낮에 걷는 일반 병사의 영상은 풍부하지만 눈 오는 밤에 포복하는 병사의 영상은 부족하다"는 품질 평가 결과를 프롬프트로 삼아 해당 조건을 보완하는 합성 데이터를 생성하겠다는 계획이다. 올해 시험평가단은 AI 무기체계 성능평가를 전담하는 조직을 신설했다. 내년부터는 주요 전력화 사업에 이 평가 절차를 실전 적용할 예정이다. 김 중령은 발표에서 "AI 신뢰성 검증은 단순히 기능 평가가 아니라 작전 환경에서 실제 사용 가능한지를 판단하는 핵심 요건"이라고 강조했다. 이어 "AI가 실물보다 데이터 기반으로 평가돼야 한다는 전환적 인식이 필요하다"고 덧붙였다. AI 강건성 평가 체계도 구체적으로 소개됐다. 이 체계는 AI 모델이 적대적 환경에서도 신뢰할 수 있는 성능을 유지하는지 시나리오별로 검증하고 향후에는 뉴런 커버리지 기반의 내부 구조 분석까지 확대한다. 이는 경량화된 AI 모델이 엣지 디바이스에서 안정적으로 작동해야 하는 군 운용 조건을 반영한 조치다. 김강민 중령은 "지금은 기술이 개념을 끌고 가는 시대"라며 "과거처럼 개념을 먼저 세우고 기술을 따라오게 하는 방식으론 늦다"고 강조했다. 이어 "AI 무기체계는 실물 무기가 아니라 알고리즘의 무기로, 검증과 신뢰 확보는 데이터와 실전 환경이 핵심"이라고 말했다.

2025.06.04 14:42조이환

중국, 세계 첫 'AI 핵탄두 검증기' 개발…美-中 군축협상 흔드나

중국 과학계가 핵무기의 진위를 식별할 수 있는 인공지능(AI) 기반 검증 시스템을 세계 최초로 개발했다. 무기 설계를 노출하지 않고도 핵 보유 여부를 판별할 수 있어 미국 주도의 기존 검증 체계를 흔들 수 있다는 분석도 나온다. 2일 사우스차이나모닝포스트(SCMP)에 따르면 중국원자에너지연구소(CIAE)는 딥러닝 기반 핵탄두 검증 시스템 개발했다. CIAE는 지난 4월 국제 학술지인 '원자과학과 기술(Atomic Energy Science and Technology)'를 통해 이 같은 사실을 공개했다. 이 시스템은 '대화형 영지식 프로토콜 기반 딥러닝 알고리즘 검증 기술'로 명명됐으며 무기급 방사성 물질과 가짜 재료를 구분하는 학습을 마친 상태다. CIAE는 중국 핵기술을 담당하는 국유기업인 중국핵공업집단(CNNC) 산하 연구기관이다. 해당 AI는 중성자 흐름 데이터를 학습해 실제 탄두인지 여부를 식별한다. 몬테카를로 시뮬레이션을 통해 수백만 개의 가상 탄두 데이터를 생성하고 이 데이터를 토대로 다층 딥러닝 구조를 훈련시켰다. 우라늄이 포함된 실제 탄두와 납이나 저농축 우라늄으로 구성된 가짜를 구별할 수 있는 능력을 갖췄다. 더불어 AI가 무기 설계 정보를 알 수 없도록 실제 탄두와 검증 시스템 사이에 400개의 구멍이 뚫린 폴리에틸렌 차폐막이 설치됐다. 이 장치는 탄두의 형상은 숨기고 방사선 신호만 전달하는 역할을 한다. 이같이 AI가 단순히 신호 패턴을 분류하는 역할만 수행해 무기 기밀은 파악하지 못한다는 것이 개발진의 주장이다. 기존 서방국의 정보차단 방식보다 기계적 복잡성을 줄이면서도 동일한 효과를 달성할 수 있다는 것이다. 중국은 이 시스템을 통해 미국 등 기존 핵보유국들이 사용하는 전자식 검증 장비의 한계를 정면으로 겨냥할 수 있게 됐다. 미국, 영국, 러시아가 개발한 기존 시스템은 복잡한 자동화 장치를 필요로 하며 백도어·IT 해킹 가능성 등으로 상호 신뢰를 어렵게 만드는 구조다. 이에 CIAE는 AI 코드를 사전 공동 개발·훈련한 뒤 테스트 전에는 봉인할 수 있도록 했다고 밝혔다. 이번 기술은 미국과 중국이 공동으로 'AI 핵무기 발사 결정 배제'에는 합의했지만 군사 인프라 수준의 AI 도입은 서로 추진하고 있는 현실과 맞닿아 있다. 트럼프 행정부가 제안한 AI 기반 '골든 돔' 방어망 역시 대규모 자동화·지능형 시스템을 포함하고 있어 유사한 흐름으로 해석될 수 있다. 이 AI 검증 기술은 10년 전 미중 과학자들이 공동 제안했던 프로토콜에서 출발했다. 핵군축이라는 정치적 사안의 기술적 기반을 중국이 먼저 실현한 셈이다. 다만 군 지도부의 기술 유출 우려, 국제사회 신뢰 확보 등 후속 과제가 남아 있어 실제 실전 적용까지는 시간이 필요하다는 평가다. SCMP는 "중국은 자국의 핵탄두 보유량이 미국보다 적다는 점을 이유로 군축 협상을 거부해왔다"며 "기존 검증 방식에 대한 불신도 협상 회피의 배경으로 작용했다"고 전했다. 이어 "이번 기술이 교착 상태에 빠진 군축 협상에서 중국의 입장을 강화할 수 있다"고 전망했다.

2025.06.02 10:02조이환

[인터뷰] 쉴드AI 브랜든 쳉 "AI, 핵 대신할 억지력…한국에 '자율 툴킷' 제공할 것"

"네이비 씰(Navy SEALs) 복무 당시의 실전 경험에서 출발해 10년 이상 인공지능(AI)·자율 시스템 개발에 집중해왔습니다. 구조적 설계를 중시한 아키텍처를 바탕으로 한국 방산 기업들이 군사 AI를 독자적으로 구축하도록 지원하고 있습니다. 이는 병력 감소 시대에 지속 가능한 전력을 유지할 수 있는 현실적 해법이자 전쟁을 막는 강력한 억지 수단입니다." 브랜든 쳉 쉴드AI 공동창업자 겸 사장은 지난 29일 서울시 강남구 퀀텀에어로 본사에서 지디넷코리아와 만나 AI·자율 무기의 전쟁 억지력과 주권형 자율성 실현방안에 대해 이같이 말했다. 30일 업계에 따르면 국방 분야에서 AI·자율 시스템의 중요성이 급격히 부각되는 가운데 쉴드AI는 확장 가능한 자율 시스템 아키텍처를 강점으로 내세우고 있다. 이 회사의 기술을 총괄하는 네이선 마이클 최고기술책임자(CTO)는 카네기멜론대 로봇연구소 출신으로, 지난 15년간 자율성 기술을 연구해온 인물이다. 회사는 그가 강조한 '구조 설계가 전부'라는 원칙을 바탕으로 자율 플랫폼을 구축하고 있다. 쉴드AI는 자율 시스템의 상태 추정, 매핑, 장면 이해, 추론, 경로 계획, 제어 등 전체 구성 요소를 수직 통합해 자체 개발하는 역량을 갖추고 있다. 이를 바탕으로 다양한 플랫폼에 자율성을 탑재해왔다. 이 기술의 중심에는 모듈형 AI 자율성 플랫폼인 '하이브마인드 엔터프라이즈(Hivemind Enterprise)'가 있다. 하이브마인드는 신속한 개발, 범용 확장성, 사용자 소유권 구조를 바탕으로 기업들이 자율성을 직접 구축·내재화할 수 있도록 지원한다. 이 플랫폼이 적용된 대표 사례가 수직이착륙 무인기 '브이배트(V-BAT)'다. '브이배트'는 도심 옥상이나 소형 함정에서도 운용 가능한 기동성, 전자전 환경에서의 작전 능력, 정찰·표적 지정 임무 수행 능력을 갖춘 전술 드론이다. 대형 드론 대비 비용·물류 부담이 적으면서도 효과가 입증돼 미국 및 동맹국 군이 전력화 중이다. 쳉 공동창업자는 미국 해군사관학교에서 기계공학을 전공하고 특수부대 네이비 씰을 거쳐 하버드 MBA를 밟은 엘리트 커리어를 밟아왔다. 복무 중이던 지난 2010년대에 AI와 자율성 기술에 빠졌고 지난 1990년대 인터넷 도입기와 유사한 기술 전환점을 목격했다. 닷컴 시대의 IT 기업가들처럼 시대 전환을 몸으로 겪고 싶어 지난 2015년에 형인 라이언 쳉, 지인인 앤드류 라이터와 창업을 결심했다. 그는 "테크 기업가였던 형의 권유로 AI 기술에 관심을 가지게 됐다"며 "이와 동시에 군인으로서 전쟁을 억제하고 평화를 실현하는 것이 내가 진정 가치를 느끼는 유일한 문제라고 느꼈다"고 말했다. 이어 "성공하거나 실패하거나 시도할 가치가 있는 목표라고 생각했다"고 말했다. 이번 방한을 통해 쳉 공동창업자는 쉴드AI의 국내 기술 협력 확대를 공식화했다. 그는 LIG넥스원, 한국항공우주산업(KAI), 퀀텀에어로 등 방산 기업은 물론 국회와 주한미군 관계자, 한국군 고위 인사들을 두루 만났다. 한국에 대해서는 확실한 거점 확대 계획을 갖고 있다. 쉴드에이는 한국 지사를 세울 계획으로, 현재는 퀀텀에어로와 협력 중이다. 국군 외에도 LIG넥스원, KAI 등과도 기술 협력을 추진 중이다. 기업 협력의 핵심은 완제품 제공이 아닌 '하이브마인드 엔터프라이즈' 플랫폼을 통한 자율 기술의 내재화다. 쳉 공동창업자는 '주권 자율성'을 강조했다. 이는 쉴드AI가 타국 기업에게 독립적으로 AI 파일럿 같은 자율 시스템을 자체 개발하고 소유하는 구조를 제공한다는 의미다. 사용자는 플랫폼을 통해 기술을 구현하되 결과물에 대한 지식재산권은 전적으로 해당 기업이 보유한다. 한국이 직면한 인구 감소 문제와 관련해서는 자율성이 결정적 해법이 될 수 있다고 봤다. 병력 감소에도 불구하고 자율 시스템의 확장으로 전력 유지를 실현할 수 있다는 설명이다. 그는 "이제 핵심은 사람을 얼마나 확보하느냐가 아니라 시스템을 얼마나 생산할 수 있느냐"라며 "이는 제조 기반이 탄탄한 한국에 유리한 구조"라고 평가했다. 자율 무기의 윤리 문제에 대해선 분명한 선을 그었다. 살상력 사용 여부는 반드시 인간이 판단해야 한다는 것이다. 미국과 북대서양조약기구(NATO) 역시 같은 기준을 따르고 있으며 쳉 공동창업자 본인의 참전 경험도 이러한 원칙의 기반이 됐다. 일각의 우려와 달리 쳉 공동창업자는 자율 무기가 오히려 가장 효과적인 재래식 억지력(Conventional Deterrence) 수단이 될 수 있다고 강조했다. 일례로 우크라이나에 지난 2022년 수백만 대 드론이 국경에 있었으면 러시아는 침공하지 못했을 것이라며 AI를 통한 대규모 '무력 시위'가 침공 자체를 억제할 수 있다고 주장했다. 브랜든 쳉 쉴드AI 공동창업자는 "AI는 핵무기와는 전혀 다른 차원의 억지력이며 향후 100년간 가장 중요한 전략 자산이 될 것"이라며 "침공을 막는 가장 실질적 수단은 보여줄 수 있는 힘"이라고 말했다. 다음은 브랜든 쳉 공동창업자와 일문일답. Q. 해군사관학교, 네이비 씰, 하버드 MBA까지 이어지는 매우 이례적인 엘리트 경력을 가지고 있다. 지난 2015년, 아직 아무도 AI에 대해 이야기하지 않던 시점에 형제, 동료와 함께 쉴드AI를 창업한 근본적인 동기가 궁금하다. A. 사실 이 커리어를 처음부터 다 설계한 것은 아니다. 처음에는 단지 네이비 씰이 되고 싶었다. 나는 기계공학을 전공했다. 어릴 때부터 기술에 관심이 많았다. 파퓰러 사이언스(Popular Science), 파퓰러 메카닉스(Popular Mechanics) 같은 잡지를 읽으며 자랐다. 형은 기술 기업을 창업해 퀄컴에 매각한 기술 기업가였고 지난 2013~2015년 사이에 내게 AI와 자율성(Autonomous) 기술에 대해 읽어보라고 권했다. 그는 퀄컴 재직 시절 삼성과 무선 전력 분야에서 협업하며 한국에도 자주 왔다. 당시 나는 네이비 씰에 있었고 그때부터 AI와 자율성에 대해 집중적으로 읽기 시작했다. 그 결과 이 두 기술이 인터넷보다 더 큰 변화가 될 거라고 확신하게 됐다. 나는 지난 1990년대 인터넷이 등장하던 시기를 직접 겪었고 1996년엔 나만의 웹사이트도 운영했다. 그때와 마찬가지로 다음 기술적 전환점이 무엇인지 자문했고 그것이 바로 AI와 자율성이라고 판단했다. 피터 틸, 제프 베조스와 같은 인터넷 시대의 젊은 창업가들이 겪었던 변화를 AI 시대에 직접 경험하고 싶었다. 또 창업을 하고 싶다는 욕구도 있었다. 아버지는 소기업을 운영하셨고 형도 창업가였다. 어떤 문제를 해결할 수 있을지 스스로에게 계속 질문했고 결국 군 복무 중 겪은 문제들로 되돌아가게 됐다. 씰 팀에서는 불평하지 말라고 교육받는다. 이 때문인지 몰라도 일반적인 B2C 문제에는 관심이 없었고 비즈니스 문제에 대한 경험도 없었다. 결국 다시 군에서 겪은 문제들, 즉 국가 안보와 세계 평화 문제로 귀결됐다. 향후 2035년의 군대에서 AI와 자율성이 어떤 역할을 해야 할지를 고민했다. 결론은 명확했다. AI는 모든 시스템, 즉 함정, 잠수함, 항공기 등을 구동해야 하며 인간을 능가하는 성능(Superhuman Performance)을 낼 수 있다고 판단했다. 또 하나의 중요한 동기는 일론 머스크의 문제 정의 방식이다. 당시 그는 인터넷, 지속가능 에너지, 우주 탐사라는 큰 문제를 선택해 사업화했다. 나도 마찬가지로 "내가 동기 부여를 느끼는 해결할 수 있는 큰 문제는 무엇인가"를 자문했다. 그 답은 전쟁의 억제였다. 전쟁은 여전히 수백만 명에게 영향을 미치는 문제지만 일론 머스크나 제프 베조스 같은 인물도 다루지 않고 있었다. 그렇다면 누군가는 이 문제를 직접 해결하려고 시도해야 한다고 생각했다. 전쟁을 억제할 수 있는 기술을 만든다면 성공 여부와 무관하게 시도 자체로 가치가 있다고 봤다. Q. 앞서 창업 동기에 대해 설명해주었다. 그렇다면 현재 쉴드AI가 보유한 핵심 기술 역량은 무엇인가? A. 쉴드AI의 가장 큰 기술적 강점은 자율 시스템 아키텍처에 대한 이해와 그것을 구현하는 능력이다. 우리 최고기술책임자(CTO)인 네이선 마이클 박사는 쉴드AI에 합류하기 전까지 15년간 자율 시스템을 연구해왔다. 그는 카네기멜론대(CMU) 로봇 연구소에서 교수로 재직하며 해당 대학 내 최대 규모의 교수 주도 연구실인 복원력 지능 시스템 연구실(Resilient Intelligent systems Lab)을 운영했다. CMU는 지난 10년간 AI와 자율성 분야에서 미국 내 1위를 차지해온 기관이다. 우리가 자율 시스템을 어떻게 구축할지 고민하던 시기 관련 논문을 수없이 검토했는데 그 중 상당수에서 네이선의 이름을 발견했다. 지난 2016년에 그를 만나 자문을 받기 시작했고 2017년에 정식으로 합류시킬 수 있었다. 처음에는 최고과학책임자(CSO)로, 이후에는 최고기술책임자(CTO)가 되었다. 네이선이 강조한 것은 자율 시스템의 '아키텍처'가 전부라는 점이다. 이는 마치 초고층 빌딩을 짓는 일과 같다. 설계가 잘못되면 구조적으로 100층짜리 빌딩을 세울 수 없듯 잘못된 아키텍처 위에서는 복원력 있고 지능적인 자율 시스템을 만들 수 없다. 많은 자율주행 회사들이 실패한 것도 이 때문이다. 방위산업 분야에서는 이런 시도가 많지 않았지만 우리는 설계부터 제대로 시작했고 그 덕분에 지금까지 확장 가능한 자율 시스템을 구축할 수 있었다고 본다. Q. 쉴드AI가 자체적인 AI 모델이나 칩을 개발하고 있는지 궁금하다. 또 많은 프런티어 AI 기업들이 서로 협력을 하고 이를 공식적으로 발표하는데 이런 형태의 협력 관계가 있는가? A. 쉴드AI는 AI와 자율성을 직접 구축할 수 있는 역량을 갖추고 있다. 지난 2015년부터 그 일을 해오고 있기 때문이다. 자율 시스템은 기본적으로 지각(Perception), 인지(Cognition), 행동(Action)으로 구성된다. 인간이 감각으로 세상을 인식하고 뇌로 판단한 후, 근육과 골격을 움직이는 방식과 같다. 자율주행차, 휴머노이드 로봇, 그리고 우리 '하이브마인드' 기반 무인 시스템 모두 동일한 구조로 작동한다. 세부적으로는 상태 추정(State Estimation), 매핑(Mapping), 장면 이해(Scene Understanding), 추론(Reasoning), 경로 계획(Path Planning), 제어(Control) 같은 모듈들이 있으며 대학이나 연구기관에 따라 명칭은 조금 다르지만 원리는 동일하다. 우리는 이 전반을 다룰 수 있는 기술을 보유하고 있고 그걸 계속 구축해왔다. 외부 기업들과의 협력 관계에 대해 구체적으로 누구와 어떤 일을 하고 있는지는 말하긴 어렵지만 그런 협력의 이점이 있다는 점은 인정한다. 다만 우리가 다른 기업들과 협력할 때는 매우 신중하게 접근한다. 단순한 보여주기식 제휴는 하지 않는다. 어떤 기업들은 존재감을 부각하기 위해 협력 발표를 하기도 한다. 쉴드AI는 그런 방식을 쓰지 않는다. 우리가 어떤 파트너십을 맺거나 공식 발표를 할 때는 그 뒤에 실제 의미와 실질적인 목적이 반드시 존재한다. Q. 이번 방한 기간 동안 어떤 활동을 했는가? 지금까지 어떤 한국 인사들을 만났고 어떤 한국 기업들과 접촉했는지 궁금하다. A. 방한 중 LIG넥스원과 한국항공우주산업(KAI)의 고위 경영진을 비롯해 여러 한국 기업들과 만났다. 국제해양방위산업전(MADEX) 행사 부스에 참가해 많은 기업들이 방문했지만 내가 모든 미팅에 직접 참석하진 않았다. 대신 우리 팀이 대부분의 회의에 참여했다. 한국군과 주한미군의 고위 관계자들도 만났고 국회와도 면담을 가졌다. 만난 사람과 기관이 많아 전체 리스트를 다 기억하긴 어렵다. Q. 현재 퀀텀에어로, LIG넥스원 등과는 어떤 방식으로 협력하고 있는가? 또 한국에 지역 사무소를 설립할 계획이 있는지도 함께 듣고 싶다. A. 향후에 한국에 지사를 설립하는 것은 100% 확정된 사항이다. 이미 우리는 퀀텀에어로와 협력 중이며 지금 있는 이 퀀텀에어로 사무실에도 오늘 오전 쉴드AI 엔지니어가 함께 있었다. 향후에도 한국 내 거점을 확대해나갈 계획이다. 한국 기업들과 협력해 그들이 자율성을 스스로 개발하고 내재화할 수 있도록 역량을 강화하는 것이 핵심 목표다. 물론 한국군과는 우리의 항공기인 '브이배트' 관련 협력도 하고 있다. 다만 LIG나 KAI와 같은 기업들과의 협력은 조금 다른 성격이다. 이들은 자체적으로 자율성 기술을 개발하고 이를 수익화하며 고객 시장에 내놓는 걸 목표로 하고 있다. 우리는 이들이 그걸 실현할 수 있도록 '하이브마인드 엔터프라이즈' 플랫폼을 통해 기술적으로 지원하고 있다. Q. 한국은 소버린 AI(Sovereign AI)에 큰 관심을 보이고 있다. 주권형 AI가 가능한지, 어떻게 달성할 수 있을지에 대한 관심이 높다. 이에 대해 쉴드AI는 어떤 관점을 가지고 있으며 한국의 소버린 AI 구축에 어떤 기여를 할 수 있다고 보는가? A. 쉴드AI는 '주권형 자율성(Sovereign Autonomy)' 구축을 위한 도구와 인프라를 제공하는 데 집중하고 있다. '하이브마인드 엔터프라이즈'는 일종의 공구 세트다. 주권형 자율성을 구축하기 위한 망치, 렌치, 드라이버 같은 역할을 한다. 우리는 LIG넥스원이나 KAI에 '주권형 자율성' 기술을 완성품 형태로 판매하려는 것이 아니다. 그들이 자율 시스템, 일례로 AI 파일럿을 스스로 개발할 수 있도록 도구와 기반을 제공하는 것이다. 장기적으로는 보다 많은 한국 기업들과 협력해 각자가 독자적인 자율 시스템을 개발하고 내재화할 수 있게 하는 것이 목표다. 그 과정에서 만들어지는 지식재산권(IP)은 해당 한국 기업들이 전적으로 소유하게 된다. 일례로 마이크로소프트(MS) 워드를 사용해 문서를 작성한다고 해서 문서 소유권이 마이크로소프트에 있지 않듯 '하이브마인드'로 구축한 자율성 기술은 사용자 기업이 소유하게 된다. 이것이 우리가 생각하는 주권형 자율성의 실질적 의미다. Q. 한국은 징병제를 유지하고 있는 동시에 출산율 0.78이라는 극단적인 인구 구조를 안고 있다. AI와 자율 시스템은 이같은 인구 구조 문제를 완화할 수 있는 핵심 수단이 될 수 있다. 쉴드AI는 인간 병력과 AI 전력을 어떻게 조합해가는 '하이-로우 믹스' 전략을 구상하고 있는가? A. 핵심은 인간과 기계의 팀 구성, 즉 '휴먼-머신 팀'이라고 본다. 어제 들은 바로는 현재 한국의 병력 규모는 약 50만~60만 명 수준인데 출산율 문제로 향후 10년 내 30만 명 수준으로 감소할 것이라고 한다. 전통적으로 보면 군사력의 절반이 줄어드는 셈이다. 그럼에도 자율성과 로보틱스를 활용하면 인구 감소에도 불구하고 동일한 수준의 전력을 유지할 수 있다. 이런 의미에서 자율성의 가장 큰 전략적 이점은 병력 숫자에 의해 제한되지 않는다는 점이다. 이제는 "얼마나 많은 인력을 확보하느냐"가 아니라 "얼마나 많은 시스템을 생산할 수 있느냐"가 핵심이다. 다행히도 한국은 이미 강력한 산업 기반과 제조 역량을 입증해왔다. 자율성을 받아들인다면 이 산업 기반과 결합해 한국은 충분히 대응 가능한 구조를 만들 수 있다고 본다. Q. 군사 AI를 논의할 때마다 윤리와 안전 문제가 함께 제기된다. 구체적으로 AI의 '전략 수립'과 '목표 설정 및 조준'은 분명히 다른 차원의 문제다. 쉴드AI는 AI의 자율적 판단을 어디까지 허용하고 어떤 지점에서 인간의 개입(Human-in-the-Loop)이 반드시 필요하다고 보는가? A. 살상력(Lethal Force)의 사용 여부는 반드시 인간이 판단해야 한다고 본다. 나는 과거 네이비실 팀에서 전장에서 살상력을 사용할지 여부를 스스로 결정해야 했던 경험이 있다. 그 경험을 바탕으로, 이런 결정은 인간이 도덕적으로 내려야 한다고 확신한다. 이것이 쉴드AI의 정책이고 미국의 정책이며 나토(NATO)의 정책이다. 아마도 한국 역시 같은 기준을 따르고 있을 것이다. 이 원칙이 의미하는 바는 명확하다. 자율 시스템이 어떤 대상을 공격하거나 파괴할 수 있는 상황이 오면 반드시 사전에 인간의 승인을 요청해야 한다. 우리는 이 방식으로 자율성과 윤리적 통제 간 균형을 유지하고 있다. Q. 고(故) 헨리 키신저는 AI 무기가 핵무기와는 전혀 다른 패러다임이며 선제적이고 비가역적인 전쟁을 촉발할 수 있다고 경고했다. 쉴드AI는 이러한 우려에 대해 어떤 입장을 가지고 있으며 이에 대한 기술·정책적 대비는 어떻게 하고 있는가? A. 오히려 나는 AI 및 자율성은 향후 100년 동안 가장 중요한 '재래식 억지력(Conventional Deterrence)'이 될 것이라고 본다. 우크라이나에서 '브이배트'를 운용 중인 이용자들과 대화해 보면 모두가 "지금 가진 능력을 3년 전에 갖고 있었다면 러시아가 국경을 넘지 못했을 것"이라고 말한다. 국경 상공에 드론 스웜을 수백만 대 수준으로 띄울 수 있었다면 침공 자체를 억제했을 것이란 얘기다. 구체적으로 이름을 밝힐 수 없지만 우리는 이같은 사명을 위해 현재 여러 국가와 협력 중이다. 내가 볼때 억지력의 본질은 우리가 가진 힘을 보여주는 '무력시위(Show of Force)'에 있다. 생각해보라. 미국은 분쟁지역의 연안에 항모 전단을 보내 무력을 과시한다. 상대국을 위축시켜 분쟁이 타국에 확산되는 것을 억제하는 것이다. 이제 국가들이 만약 자율 드론 수백만 대를 전개할 수 있는 능력을 가진다면 이는 침략자에 대한 엄청난 억지력으로 작용할 것이다. 이에 나는 AI가 가장 훌륭한 재래식 전략 억지력이 될 것이라고 믿는다.

2025.05.30 15:12조이환

"북한 해커, 위장취업해 北 송금"…메일 1천개 적발

북한 해커가 위장 취업해 번 돈을 북한으로 송금하고 있다. 16일(현지시간) 미국 잡지 와이어드에 따르면 해외 정보보호 기업 디텍스는 최근 북한 해커가 쓴 것으로 확인된 이메일 주소 1천개를 적발했다. 이는 지금까지 알려진 북한 해커 활동 중 가장 큰 규모라고 와이어드는 추정했다. 북한 해커는 세계 정보기술(IT) 산업에서 활발하게 활동하는 것으로 전해졌다. 도용된 신원을 사용하거나 합법적인 것처럼 보이는 가짜 신분을 만들어 외국 회사에 취업한다. 실제로는 북한 군과 정보기관에 속한다. 조사 결과 북한 김정은 정권은 해커에게 수입 할당량을 정해 놨다. 한 달 5천 달러(약 700만원) 벌면 200달러(약 28만원) 가져갈 수 있다. 4%만 손에 쥔다는 얘기다. 나머지 96%는 북한 정권에 넘어간다. 그래도 북한 해커는 북한에서와 비교하면 호화롭게 살 수 있다. 디텍스는 라오스에서 활동한 북한 해커 2명의 신원을 공개했다. 이들은 '나오키 무라노'와 '젠슨 콜린스'라는 가명을 썼다. 이들이 스테이크에 와인을 곁들여 저녁을 먹고, 호화로운 개인 수영장에서 느긋하게 시간을 보내는 사진이 포착됐다. 무라노는 지난해 암호화폐 회사 델타프라임이 당한 600만 달러(약 84억원) 탈취 사건에 연루됐다. 디텍스는 북한의 사이버 작전은 러시아나 중국 같은 나라와 비교할 수 없는 정도라고 분석했다. 북한은 국가가 승인한 범죄 조직으로 운영하기 때문이다. 디텍스는 북한 해커의 모든 활동이 정권 자금 지원, 핵무기 개발, 정보 수집을 위해 이뤄진다고 설명했다. 또 북한이 서양 국가와 기업에 세계에서 가장 정교하고 위험한 사이버 위협을 가한다고 평가했다. 미국 연방수사국(FBI)은 북한이 가상자산 거래소 바이비트에서 15억 달러(약 2조원)를 훔치며 사상 최대 암호화폐 절도를 저질렀다고 지난 2월 발표했다.

2025.05.17 07:07유혜진

北 김정은, AI 자폭드론 참관…러 지원 가능성↑

북한이 인공지능(AI)을 탑재한 자폭 드론 생산 확대를 추진 중인 것으로 알려졌다. 28일 BBC 등 외신에 따르면 김정은 북한 국무위원장은 AI 기반 무기 체계를 본격화한 것으로 전해졌다. 조선중앙통신은 김 위원장이 활주로에서 AI 자폭 드론을 둘러보는 사진도 공개했다. 북한은 지난해 8월 AI 자폭 드론을 처음 공개했다. 이 드론은 '로이터링 무기'로 분류되며 목표물에 돌진해 자폭하는 방식으로 작동한다. 외신은 해당 드론이 러시아 기술 지원을 받은 것이라고 분석했다. 북한이 최근 병력을 러시아에 파견하는 등 양국 간 군사 협력을 강화한 모습을 보여서다. 앞서 북한은 지난해 블라디미르 푸틴 대통령과 상호 방위 협정을 체결한 바 있다. 지난달 북한이 러시아 쿠르스크 전선에 병력을 재배치했다는 보도도 이어졌다. 이 외에도 북한은 조기경보기로 추정되는 항공기도 사진을 통해 공개했다. 해당 기체는 민항기 형태로 전투 지역 상공에서 레이더로 정세를 파악할 수 있다. 미국 코넬대 제임스 패튼 로저스 브룩스 기술정책연구소 소장은 "북한이 군사 전략을 드론 중심으로 재편하고 있다"며 "AI 무기 알고리즘이 불안정하면 한반도 안보 상황이 우발적으로 악화될 수 있다"고 밝혔다.

2025.03.28 10:08김미정

"中 장난감 드론, 15만원이면 전쟁 무기로 바꾼다"

100달러(약 15만원)만 보태면 중국산 장난감 무인기(Drone)를 무기로 바꿀 수 있다는 분석이 나왔다. 미국 잡지 와이어드는 20일(현지시간) 이런 조사 결과를 보도했다. 해외 정보보호 기업 레드벌룬은 중국 전자상거래 업체 테무와 알리익스프레스에서 파는 드론이 대부분 200달러라고 밝혔다. 물병이나 박격포 폭탄을 실어 드론에 고정하는 화물 받침은 100달러다. 1.5㎞ 길이 광섬유 테더는 260달러, 인공지능(AI) 유도 모듈은 325달러에 살 수 있는 것으로 나타났다. AI 유도 모듈은 멀리서도 사람과 차량 등을 알아보는 장착형 카메라라고 레드벌룬은 소개했다. 테더는 이더넷 케이블을 노트북에 직접 꽂는 것처럼 드론이 신호 방해를 받지 않고 넓은 지역을 비행할 수 있게 해준다고 전했다. 레드벌룬은 이들 부품이 러시아-우크라이너 전쟁에서 폭발물을 투하하거나 자동 조종으로 드론을 충돌시키는 데 쓰인다고 지적했다. 테무와 알리에서 살 수 있는 테더에 프로그래밍 가능 집적회로 반도체(FPGA)가 탑재돼서다. 앙 쿠이 레드벌룬 최고경영자(CEO)는 “장난감으로 사람을 죽일 수 있다”며 “제조사들이 전쟁에 쓰려고 만든 것들이 넘쳐난다”고 말했다. 데이브 토레스 레드벌룬 FPGA 보안 책임자는 “몇 ㎞ 떨어진 곳에서 드론을 보내 어딘가에 물병을 떨어뜨릴 수 있다”며 “사제 폭탄(IED)을 누군가에게 날릴 수 있다”고 비판했다. 테무와 알리익스프레스 모회사 알리바바는 '본래 무기가 아닌 부품이 어떤 위험을 초래하는지, 구매를 제한하는기도 하는지' 묻는 와이어드 논평 요청에 답하지 않았다.

2025.03.22 09:55유혜진

"10년 뒤 인류 멸망할 수 있다"…국내 1세대 AI 연구자, 섬뜩한 발언한 이유는

"미국 트럼프 행정부가 들어서면서 인공지능(AI) 안전보다 발전에 더 주안점을 두기 시작했다는 점이 우려됩니다. 이렇게 되면 10년 뒤에 인류는 멸망할 수 있습니다." 한상기 테크프론티어 대표는 최근 서울 강남구 모두의연구소 강남캠퍼스에서 진행된 '국방 인공지능 혁신 네트워크' 행사에 연사로 참석해 이처럼 강조했다. 한 대표는 서울대 컴퓨터공학과를 졸업하고 카이스트에서 전산학 석·박사를 마친 국내 1세대 AI 연구자다. 이날 'AI 안전 : 주요 토픽과 해결할 문제들'이란 주제로 발표에 나선 한 대표는 최근 범용인공지능(AGI)의 능력이 향상되면서 추가적인 리스크들이 점진적으로 나타나는 것에 대해 우려를 표했다. 20일 업계에 따르면 AI는 고도화 수준에 따라 '제한적 인공지능(ANI)', 'AGI', 'ASI'로 구분한다. 이 중 AGI는 ANI인 오픈AI '챗GPT'나 구글 '제미나이'와 달리 사전 학습된 데이터와 알고리즘에 의존하지 않고도 새로운 문제를 분석하고 해결책을 제시할 수 있는 AI다. 인간 수준의 일반 지능을 갖추고 논리력과 창의적 추론 능력을 보유한 AI로 설명된다. 추론 능력이 향상된 오픈AI의 최신 모델 'o1', 'o3' 등은 ANI에서 AGI로 이행하는 단계에 있다는 평가를 받는다. 그 다음 단계인 ASI는 인간을 뛰어넘는 지적 능력을 갖춘 AI를 의미한다. 스스로 목표를 설정하고 개선하는 능력이 탁월해 인간이 상상할 수 없는 수준의 복잡한 문제를 창의적으로 해결할 수 있다. AI 간의 자발적 소통이 가능해 인류가 전유물로 여겨온 '집단 지성'도 구현할 수 있다. 한 대표는 "데미스 하사비스 구글 딥마인드 최고경영자(CEO)는 5년, 다리오 아모데이 앤트로픽 CEO는 2~3년 안에 AGI 시대가 올 것이라고 얘기하고 있다"며 "적어도 10년 안에 온다고 보면 이에 대한 (안전성과 관련해) 대비를 해 나갈 필요가 있다"고 강조했다. 또 한 대표는 AI를 '핵무기' 수준으로 봐야 한다고 강조하며 AI 발전과 함께 안전성도 같이 고려해 나가야 한다고 주장했다. 그는 "최근 앤트로픽 클로드 3.7이나 오픈AI o3 같은 모델들이 출시되면서 인터넷에 존재하지 않는 정보를 추론 능력으로 답변을 만들어지는 사례들이 늘어나고 있다"며 "생화학 무기, 핵무기 등에 이 같은 AI가 사용되기 시작할 경우 안전성이 확보되지 않으면 큰 문제가 될 것"이라고 지적했다. 그러면서 "이제는 AI 모델뿐 아니라 시스템, 애플리케이션까지 확대해 AI와 관련된 범죄 가능성에 대해 고민해봐야 할 시점"이라며 "영국 등에선 이미 안전성뿐 아니라 국가안보적인 관점에서 AI를 들여다 보기 시작했다는 점에서 우리나라도 함께 고민해 봐야 할 것"이라고 덧붙였다. 이날 '딥시크를 포함한 추론형 AI에 대한 이해'를 주제로 강연에 나선 이진원 하이퍼엑셀 CTO는 AI가 점차 발전하면서 인간이 통제할 수 있는 영역을 점차 벗어나고 있다는 점을 주목했다. 또 앞으로는 AI가 AI를 컨트롤하는 방향으로 기술 발전을 해 나가야 하지만 데이터가 AI 발전 속도를 따라가지 못하고 있다는 점에서 우려를 표했다. 더불어 이 CTO는 오픈AI가 생각하는 AI 5단계를 소개하며 현재 AI가 ANI에서 AGI로 넘어가는 과정에서 데이터 학습량을 더 늘리기 위해 엔비디아가 그래픽처리장치(GPU)를 더 크게 만들 필요가 있다는 점도 강조했다. 이 CTO는 "딥시크처럼 저렴한 모델들이 나오면서 앞으로 AI가 실제 산업에 더 다양하게 활용될 것으로 보인다"며 "GPU 수요는 앞으로 더 폭발적으로 늘어날 것으로 보인다"고 관측했다. 이어 "딥시크 같은 기업들이 속속 나오고 있지만 오픈AI, 구글 등 빅테크의 AI 기술력을 따라가기에는 쉽지 않을 것"이라며 "다만 우리나라가 AI 경쟁력을 키우기 위해선 중국 딥시크 같은 모델을 벤치마킹해야 한다"고 주장했다. 이날 행사에선 국방기술진흥연구소 박삼준 AI PD와 김일환 삼성SDS 그룹장, 최민석 ETRI AI 안전연구소 박사 등이 참여한 패널 토의도 '국방분야 생성형 AI 도입 및 활용 방향'을 주제로 진행됐다. 각 패널들은 AI의 통제력 상실을 막지 않으면 국방분야에 생성형 AI를 도입하는 것이 쉽지 않을 것으로 봤다. 최 박사는 "무기 체계가 알고리즘으로 움직여지는 상황에서 사람 통제를 벗어나 (AI를 통해) 자의적으로 움직여질 경우 상대뿐 아니라 우리에게도 그 피해가 발생할 것이란 점이 우려된다"며 "이를 막기 위해 여러 단계의 안전장치를 고려해야 하지 않을까 싶다"고 강조했다. 김 그룹장은 우리나라가 국방 분야에서 AI를 활용하기 위해선 양질의 데이터를 안전하게 확보하는 동시에 클라우드로 전환하는 것이 가장 중요하다고 주장했다. 또 미군이 팔란티어와 손잡고 국방 전 분야를 클라우드로 전환해 활용하는 사례를 들어 우리나라도 클라우드로 점차 전환해 나갈 필요가 있다고 지적했다. 현재 미군은 팔란티어의 SaaS(클라우드 기반 서비스형 SW)를 구독해 매일 시스템을 업데이트 하고 활용하고 있다. 김 그룹장은 "우리 군 역시 JADC2(합동 전 영역 동시통합지휘통제) 등을 추진하며 국방 AI에 대한 구체적인 계획을 가지고 있는 것으로 안다"며 "이를 실행하기 위해선 예산 확보가 필수적으로, 이 문제만 해결되면 우리나라군도 굉장히 빠르게 (미군 수준으로) 따라갈 수 있을 것이라고 생각한다"고 말했다.

2025.03.20 17:13장유미

"국가 안보 고려"…구글, AI 원칙서 '무기 개발 금지' 문구 삭제

구글이 인공지능(AI)을 무기 개발과 감시에 활용하지 않겠다는 서약을 자사 웹사이트에서 삭제해 AI의 군사적 이용 가능성을 둘러싼 논란이 불거지고 있다. 5일 테크크런치 등 외신에 따르면 구글은 최근 AI 원칙 페이지를 개정하면서 '추구하지 않을 기술(applications we will not pursue)' 목록을 삭제했다. 이 목록에는 AI의 무기화 및 감시 기술 개발을 하지 않겠다는 내용이 포함돼 있었으나 현재는 찾아볼 수 없다. 구글은 이번 변경에 대한 공식 입장을 내놓지 않았다. 다만 내부 블로그를 통해 "국가 안보를 지원하는 AI를 만들기 위해 같은 가치를 공유하는 기업, 정부, 조직들이 협력해야 한다고 믿는다"며 "책임 있는 AI 개발을 위해 국제법과 인권 원칙을 준수할 것"이라고 밝혔다. 최근 구글은 미군 및 이스라엘 군과의 클라우드 서비스 계약을 체결하면서 내부 직원들의 반발을 산 바 있다. 지난 2018년에도 미 국방부 프로젝트 '메이븐(Maven)' 참여로 인해 내부 논란이 발생해 이후 AI 무기 개발을 하지 않겠다고 선언했다. 테크크런치는 "구글은 지속적으로 자사 AI가 인간을 해치는데 사용되지 않는다고 주장해 왔다"면서도 "다만 미군 AI 책임자가 최근 일부 기업의 AI 모델이 '킬 체인'을 가속화하고 있다고 밝힌 바 있다"고 설명했다.

2025.02.05 10:08조이환

표준협회, 신임 전무이사에서 이동석 전 방위사업청 유도무기사업부장

한국표준협회(회장 문동민)는 이동석 전 방위사업청 유도무기사업부장을 산업표준원장(전무)으로 선임했다고 31일 밝혔다. 이동석 신임 산업표준원장은 경남대 기계공학 학사, 인하대 기계공학 석사, 부산대 기계설계공학 박사 학위를 취득했다. 1994년부터 2004년까지 한국항공우주산업에서, 2004년부터 2006년까지 현대위아에서 근무한 후 2006년부터 2024년까지 방위사업청에서 기술기획과총괄, 호위함사업팀장, 유도무기사업부장을 역임했다.

2024.12.31 13:56주문정

中 "관세 올리는 美, 무역 질서 망쳐"

미국이 중국산 태양광 웨이퍼 등에 관세를 2배 올리기로 하자 중국 정부가 무역 질서를 망친다며 맞섰다. 중국 상무부는 16일(현지시간) 미국의 일방적인 관세 인상 조치에 반대한다고 발표했다. 상무부는 미국이 중국산 상품 관세를 올려도 미국의 무역적자와 산업 경쟁력 문제를 풀 수 없다며 미국 물가가 올라 미국 소비자가 손해볼 것이라고 경고했다. 상무부는 미국이 국제 경제·무역 질서와 산업망·공급망을 심각하게 파괴한다고 지적했다. 세계무역기구(WTO)는 중국을 향한 미국의 관세가 WTO 규칙을 위반하는 것이라고 판정했다고 전했다. 미국 무역대표부(USTR)는 지난 11일 통상법 301조에 따라 내년 1월부터 미국으로 수입되는 중국산 태양광 웨이퍼와 폴리실리콘에 붙는 관세를 50%로 2배 올린다고 밝혔다. 0%이던 중국산 텅스텐 관세는 25%가 된다. 태양광 웨이퍼와 폴리실리콘은 태양광 전지, 텅스텐은 무기나 컴퓨터 칩을 만드는 데 쓰인다.

2024.12.17 16:52유혜진

美, 중국산 태양광 웨이퍼 관세 50%로 인상

내년부터 미국으로 수입되는 중국산 태양광 웨이퍼와 폴리실리콘에 붙는 관세가 50%로 2배 오른다. 미국 무역대표부(USTR)는 11일(현지시간) 통상법 301조에 따라 내년 1월부터 이같이 시행한다고 발표했다. 0%이던 중국산 텅스텐 관세는 25%가 된다. 태양광 웨이퍼와 폴리실리콘은 태양광 전지, 텅스텐은 무기나 컴퓨터 칩을 만드는 데 쓰인다. USTR은 중국의 해로운 관행을 막으려 관세를 올렸다고 설명했다.

2024.12.12 15:42유혜진

美·中 "핵무기 사용, 인간이 결정"…AI 관여 배제 합의

미국과 중국이 핵무기 사용에 있어 인간의 통제(human in the loop)를 유지해야 한다고 합의했다. 18일 로이터 통신에 따르면 조 바이든 미국 대통령과 시진핑 중국 국가주석은 지난 16일 페루 리마에서 열린 회담에 참가해 핵무기와 관련된 의사결정에서 인공지능(AI)의 관여를 배제하기로 상호 합의했다. 이와 함께 양국은 AI의 군사적 활용에 신중히 접근해야 한다는 데도 공감했다. 백악관 관계자는 "바이든 대통령은 핵무기 사용 결정에 있어 인간의 통제를 유지할 필요성을 시 주석과 함께 확인했다"며 "군사 분야에서 AI 기술의 잠재적 위험을 신중히 고려하고 책임감 있게 개발할 필요성을 강조했다"고 밝혔다. 이 같은 내용은 중국 정부의 공식 회의 요약에도 반영됐으나 중국 외교부는 로이터의 논평 요청에는 응답하지 않았다. 이번 합의는 미국이 중국과의 핵무기 협상을 꾸준히 촉구해온 가운데 이뤄졌다. 미국은 중국의 핵무기 보유량 확대와 군사적 현대화에 대한 우려를 지속적으로 제기해왔다. 현재 중국은 공식적인 핵무기 보유량을 공개하지 않고 있다. 그럼에도 최근 서방 평가에 따르면 중국은 이미 500개의 핵탄두를 보유하고 있으며 오는 2030년까지 1천 개 이상의 탄두를 획득할 것으로 전망되고 있다. 로이터 통신은 "미중 AI 논의는 올해 5월 시작된 바 있으나 핵무기 의사결정과는 직접적인 관련이 없었다"며 "양국의 이번 논의는 AI 관련 협력 논의와는 별개로 이뤄졌다"고 분석했다.

2024.11.18 09:56조이환

과기노조 한의학연지부 "인권위 급여차별 시정 권고 수용하라"

전국과학기술노동조합 한국한의학연구원지부가 기관장 사퇴와 국가인권위원회 권고를 즉각 시행을 요구하는 성명을 14일 발표했다. 이 성명서에 따르면 무기계약직 직원들은 ▲급여가 동일 업무를 수행하는 정규직의 75% 불과 ▲급여 테이블 전무 등에 대해 수년 전부터 개선을 요구해 왔다. 또 사측과도 3~4년간 간담회를 지속 개최했다. 한의학연지부는 무기계약직 직원들의 요청에 따라 이같은 내용을 국가인권위원회에 진정, 지난 9월 '무기계약직 근로자에 정규직 행정직 기술직에 준하는 급여를 지급하는 등 처우를 개선할 것을 권고'하는 결정문을 받았다. 그러나 한의학연지부는 최근 사측의 권고문 시행 의지를 의심하고 있다. 사측이 법률사무소와 법률계약을 체결한 바, 인권위에 행정심판을 제기하기 위한 것이라는 주장이다. 한의학연지부 측은 "사측은 인권위 결정문에 대해 오는 12월 4일까지 차별시정 관련 이행 계획서를 준비해야 한다"며 "대부분 이 결정문을 따르는데, 현재 매우 이례적인 상황"이라고 지적했다. 이에 대해 사측인 한의학연은 "진정과 관련, 추가적 판단이 필요해 정해진 적법한 절차에 따라 진행하고 있는 사항"이라고 말했다.

2024.11.14 11:16박희범

中, 전투 기능 갖춘 '늑대 로봇' 공개...무기도 탑재

중국 무기 개발 국유 기업이 전투 기능을 가진 4족 늑대 로봇을 공개했다. 10일 중국 CCTV 군사 채널에서 중국 국방 과학기술 국유 기업 중국병기장비그룹(CSGC)이 자체 개발한 '늑대 로봇'을 처음으로 공개했다. 이 로봇은 민첩한 기동성과 다양한 작전 성능을 갖췄다고 CSGC가 소개했다. 군사 기술인 만큼 자세한 스펙은 공개되지 않았다. 하지만 매체에 따르면 이 늑대 로봇은 다양한 기능을 가지면서 복잡한 환경에서 임무를 수행할 수 있다. 다른 설비 혹은 조직과 협동 작전을 통해 전반적 작전 효율을 높여준다. 이러한 협동 기능은 현대 군사 장비가 가져야 할 중요한 특징으로서, 변화가 많은 전장 환경에서 효과적이라고 매체는 전했다. 늑대 로봇은 고화질 카메라, 적외선 열화상 카메라, 소형 레이더 등 정찰 장비를 장착해 다양한 정보를 수집할 수 있다. 특수한 상황에서는 공격적 역할을 수행하기 위해 특정한 경량 무기를 탑재할 수도 있다. 지뢰 제거, 고위험 지역 정착 등 위험한 전장 환경에서 늑대 로봇이 군인을 대신할 수 있다. 군인들이 총탄과 폭발물 등 위협에 직접적으로 노출되는 것을 방지하면서 사상자를 줄일 수 있다. 더욱이 늑대 로봇은 다양하고 복잡한 지형에 적응할 수 있다. 사지 구조를 통해 산지, 밀림, 눈 내린 지역과 늪 등 지형에서도 좋은 기동성을 유지한다. 이는 바퀴형이나 궤도형 장비로는 불가능한 일이다. 중국병기장비그룹은 1999년 베이징에 설립된 중국 국유 기업으로서 무기 장비의 연구개발과 생산 등을 맡고 있다.

2024.11.11 08:37유효정

김우영 의원 "KAIST 무기계약직은 애키우기 정말 힘들어"

KAIST 무기계약직은 육아 휴직시 대체 인력을 자신이 구해야 하고, 급여와 퇴직 충당금을 기관이 아닌 연구책임자(교수)가 책임지고 있는 것으로 드러났다. 국회 과학기술정보통신위원회 소속 김우영 의원(더불어민주당, 서울 은평을)은 공공과학기술연구노동조합 카이스트유니온지부와 함께 지난 달 말 KAIST) 무기계약직 및 위촉직 노동자 100명(여성 90명/남성 10명)을 대상으로 육아휴직과 관련한 설문 조사를 진행했다. 이 조사에는 연구행정직(무기계약직)이 95명, 학연지원직 4명과 위촉계약직 1명이 참여했다. 응답자 중 육아휴직 사용 경험이 있는 사람은 39명이었다. 응답자들은 주위에서 육아휴직 제도 사용을 꺼리는 이유(중복응답)로 ▲육아휴직 대체자 채용과 급여 문제(휴직자에게 전가)를 가장 많이 꼽았다. 응답 건수는 총 72건으로 전체의 30%를 차지했다. 이어 ▲퇴직충당금 재원 마련(연구책임자에게 전가)이 다음 순(64건, 27%)이었다. 김우영 의원은 "KAIST 연구원이나 연구행정직은 육아휴직 대체자 채용을 스스로 해야 하고, 대체자 급여와 자신의 퇴직충당금을 모두 연구책임자에게 전가해야 하는 구조적인 문제가 있다"고 지적했다. 또 '육아휴직 시 퇴직충당금 재원 마련 방법'에 대한 질문에는 ▲당해연도 연구책임자 사업비 계정으로 처리가 34건 34%를 차지했다.이어 ▲학교, 인사팀 계정으로 처리가 13건, 13%로 뒤를 이었다. 김우영 의원실 측은 "근로기준법상 무기계약직 사용자는 KAIST임에도 기관 예산으로 퇴직충당금을 지급한 경우는 13%에 그쳤다"며 "대부분 연구책임자에게 퇴직충당금을 전가하고 있고, 심지어 복직했음에도 불구하고 여전히 퇴직충당금이 미납인 경우도 4건"이라고 말했다. '출산휴가 및 육아휴직 제도 활용으로 본인이나 주변인이 받은 불리한 처우' 항목의 질문에서는 ▲휴직 기간 중 임금 인상률 미적용(58건, 29%) ▲복직 시 임금 동결 또는 하락(41건, 20.5%) 순이었다. '육아휴직제의 개선'에 대한 질문에는 ▲퇴직충당금 사용자(학교) 부담(46%) ▲육아휴직 대체자 채용과 인건비 사용자 부담(36%) 등을 꼽았다. 김우영 의원은 "KAIST 국가연구과제 간접비 징수비율을 상향 조정해 개별 연구책임자에게 책임을 전가하는 구조를 고쳐야 할 것"이라며 제도 개선을 촉구했다.

2024.10.15 11:47박희범

국방 AI 무기체계 평가 기술, 씽크포비엘이 '선도'

씽크포비엘이 고품질 인공지능(AI) 무기체계를 획득하고 국방 경쟁력을 강화할 수 있는 시스템 수준 평가 방안을 제시하며 그 역량을 입증했다. 씽크포비엘은 롯데호텔에서 진행된 '2024 인공지능의 책임 있는 군사적 이용에 관한 고위급회의(REAIM)'에서 AI 무기체계의 시스템 수준 평가 방안을 제시했다고 10일 밝혔다. 이번 행사는 AI 무기체계의 신뢰성과 성능을 확보하는 데 중점을 두고 전 세계의 군, 정부 관계자, 관련 전문가들에게 해당 방안을 공유하며 관심을 끌었다. 씽크포비엘은 AI 무기체계의 성능을 평가할 때 '견고성', '설명가능성', '의도부합성'을 세가지 주요 기준으로 삼았다. 회사에 따르면 이러한 기준들은 AI 기술이 적용된 무기체계가 실제 전투 상황에서도 성능을 발휘하기 위해서는 필수적이다. 회사는 올해 상반기부터 국방기술품질원과 협력해 AI 무기체계의 시스템 수준 평가 방안 연구를 진행 중인 것으로 알려졌다. 이 연구는 AI 기술 발전 속도를 따라잡지 못한 기존 무기체계 품질 관리 방안을 보완하기 위한 것이다. 연구를 통해 도출된 평가 방안이 적용되면 군은 보다 신뢰할 수 있는 AI 무기체계를 획득할 수 있을 것으로 기대된다. 씽크포비엘 관계자는 "AI 적용 무기체계 시스템 평가기법이 고도화하면 신뢰할 수 있는 고품질 AI 무기체계 획득이 가능해진다"며 "기술 격변기인 지금 관련 투자가 일회성에 그치지 않도록 정부 차원 관심과 지원이 절실하다"고 강조했다.

2024.09.10 16:33조이환

[현장] REAIM 고위급회의 "책임 있는 군사 AI 통제, 국제 평화 열쇠"

전 세계 전문가들이 한 곳에 모여 군사 인공지능(AI)의 위험을 통제하고 책임 있게 활용해야 한다고 입을 모았다. 국제 평화와 안보를 보장할 유일한 방안이기 때문이다. 대한민국 외교부는 9일부터 이틀간 서울 롯데 및 웨스틴조선 호텔에서 국방부와 함께 '제2차 2024 인공지능의 책임있는 군사적 이용에 관한 고위급 회의(REAIM)'를 개최한다. 이 회의는 네덜란드, 싱가포르, 케냐, 영국이 공동으로 주최하며 총 90여 개국이 참석한다. 'REAIM 고위급회의'에는 전 세계 정부 대표단뿐만 아니라 산업계·학계·국제기구·시민사회·청년 분야에서 2천 명 이상의 관련 인원이 참여한다. 이번 회의에서는 AI의 위험과 윤리적 문제를 해결하기 위한 규범 정립과 구체적인 대응 방안에 대해 토론이 이뤄진다. 조태열 외교부 장관은 9일 'REAIM 고위급회의' 개회 연설에서 AI의 군사적 활용이 가져올 변화에 대해 경고했다. 이에 따라 군사 AI를 책임 있게 통제해야 한다는 점을 강조했다. 조 장관은 "군사 AI가 전략과 야전 사령관의 역할을 변화시키며 역할 간 경계를 허물고 있다"며 "이에 따라 기술적 변화가 전장만 아니라 국제 질서에도 영향을 미치게 됐으므로 AI를 책임 있게 다룰 필요가 있다"고 강조했다. 또 조 장관은 AI가 대량 살상 무기로 전락해서는 안 되며 이를 방지하기 위한 최소한의 보호 조치가 마련돼야 한다고 주장했다. 그는 "이번 'REAIM' 회의는 AI가 국제 안보에 미칠 영향을 평가하고 국제법에 따라 AI를 적용할 방안을 논의하는 장이 돼야 한다"며 "다자간 협력은 제네바 협약의 사례처럼 AI에도 마찬가지로 적용돼야 한다"고 밝혔다. 이어 김용현 대한민국 국방부 장관은 AI 기술을 통한 국방 혁신에 대해 논의했다. 김 장관은 "최근 우크라이나 전쟁에서 드론 기술이 다윗의 돌팔매 역할을 했다"며 "AI 기술은 군사 작전 능력을 비약적으로 향상시키고 있다"고 밝혔다. 이어 김 장관은 대한민국도 국방혁신 4.0을 통해 AI 기반의 강군을 건설하고 있다고 강조했다. 이와 동시에 AI의 윤리적 기준 준수를 위해 국제사회와의 협력을 지속하겠다는 의지를 밝혔다. 그는 "이번 회의는 AI의 책임 있는 군사적 이용에 대한 균형 잡힌 이해를 제공할 것"이라며 "국군 또한 책임있는 군사 AI의 국제적인 기반을 강화하는 데 기여하겠다"고 밝혔다. 개회식의 마지막 연사로 참가한 루벤 브레켈만스 네덜란드 국방부 장관은 이번 회의의 중요성을 강조하며 네덜란드와 한국의 오랜 파트너십을 언급했다. 그는 "네덜란드 선원 헨드릭 하멜이 조선에 표류한 400년 후 이제 두 나라는 AI 기술로 협력 범위를 넓혔다"며 "지난 해 네덜란드에서의 제1차 회의에서 원칙에 대해 합의했으니 이제 군사 AI에 대한 보다 구체적인 논의를 하길 희망한다"고 밝혔다. 그러면서 "AI 개발에 있어 책임 있는 방식을 택하도록 노력해야 한다"며 "AI라는 배가 좌초되지 않도록 각국이 함께 행동할 것"을 강조했다.

2024.09.09 11:28조이환

KIAT, '제7회 산업기술정책포럼' 개최…방산 경쟁력 강화 논의

한국산업기술진흥원(KIAT·원장 민병주)은 21일 서울 광화문 포시즌스호텔 서울에서 '제7회 산업기술정책포럼'을 개최했다고 밝혔다. 산업기술정책포럼은 KIAT가 산업기술 진흥에 필요한 정책을 발굴하기 위해 연구기관 및 기업 관계자 의견을 수렴하기 위해 마련됐다. 이날 행사에서 참석자들은 방위 산업의 동향을 살펴보고 국내 방위 산업의 경쟁력 강화 방안을 논의했다. 우리나라 방산 수출은 국내 무기 체계 경쟁력 향상과 러시아-우크라이나 전쟁 장기화, 중동 지역 불안정성 확대 등 급변하는 국제 정세로 최근 3년간 연평균 120억 달러를 상회하는 등 급증세를 보이고 있다. 이날 참석한 전문가들은 민간 첨단 기술 융복합화가 돼야 방산 생태계 역량이 확충되고 국내 방위 산업이 지속해서 성장할 수 있다고 진단했다. 장원준 산업연구원 연구위원은 “최근 이뤄낸 국내 방위 산업 수출 성과에서 멈추지 않고, 지속적인 성장을 위해서는 첨단 민간기업, 인프라, 자본을 포함하는 K-방산 혁신생태계로의 전환이 필요하다”고 강조했다. 기업 사례 발제자로 나선 한화에어로스페이스 손인수 항공소재연구센터장은 “최근 전략 무기 자산이 지상 무기 체계에서 무인 항공 무기 체계로 빠르게 전환되고, 국가 간 첨단 항공 분야의 수출 통제도 강화되는 상황”이라며 “기술 및 인프라 측면에서 해외와의 격차를 극복하려면 적극적 정부 지원이 필요하다”고 강조했다. 민병주 KIAT 원장은 “방위 산업의 생태계 강화를 위해 정부와 유관기관과 지원 방안을 논의해 나갈 것”이라며 “우리 기업이 세계 시장에서 경쟁력을 발휘할 수 있도록 전문 인력 확보와 해외 시장 진출 등을 지원하겠다”고 말했다.

2024.06.21 13:32주문정

생성형 AI는 과연 투명해질 수 있을 것인가

우리 정부는 인공지능(AI) 개발이 지향해야 할 가치로 세 가지를 꼽는다. 안전·포용·혁신. 강도현 과학기술정보통신부 2차관은 지난 달 29일(현지시간) 스위스 제네바에서 열린 '선의를 위한 인공지능(AI for Good) 글로벌 정상회의 2024' 행사에서 “AI는 사람을 중심으로 해야 한다”며 이를 강조했다. 안전·포용·혁신은 그 전주에 열린 'AI 서울 정상회의'에서 각국 정상이 합의한 지향이기도 하다. 세 가지 가치 중에서 현재 가장 뜨거운 것은 혁신이다. 혁신은 기술과 비즈니스 모델 개발에 방점이 찍혀 있다. 2022년 11월 챗GPT 출시 이후 AI가 인류의 최대 핫 기술이 된 것을 의심하는 사람은 없다. 많은 나라가 명운을 걸고 AI 산업 진흥에 국가 대항전을 펼치고 있으며, 기업도 사활이 걸린 문제로 인식하고 있다. 그중에서도 AI 모델과 이를 가능하게 할 AI 반도체 개발 경쟁이 치열하다. 혁신이 기술과 산업의 영역이라면 포용은 정치의 몫이다. AI 기술이 주목되는 까닭은 그것을 가진 자와 못 가진 자의 격차가 크게 벌어질 것이라는 게 자명하다는 데 있다. 그 격차는 사회적 혼란을 부른다. 이 혼란을 줄이기 위해서는 기술 발전으로 인한 혜택을 넓혀야 한다. 일자리 변화에 대한 대책을 세우고, 새로운 시대에 맞게 교육도 해야 한다. 산업보다는 정치가 담당해야 하는 역할들이다. 안전은 기술의 문제로 인식되곤 한다. 현재 AI와 관련된 안전 문제로 거론되는 사안은 시스템 오류, 편견, 조작, 무기화 등이다. 시스템 오류의 경우 기술이 갖는 비완벽성이라는 일반적 한계이고 편견의 경우 잘못된 학습으로 나타난 AI의 고유한 오류다. 조작과 무기화는 AI 기술 자체의 문제라기보다 이를 운용하는 인간의 문제다. 여하튼 이 모든 것을 기술로 해결해야 한다는 믿음이 있는 듯하다. 안전 문제는 그런데 기술 사안이기도 하면서 근본적으로는 철학의 영역이기도 한 것 같다. 정상회의의 테마가 '선의를 위한 인공지능(AI for Good)'이라는 게 예사롭지 않다. '선의(Good)'라는 것은 구체적으로 무엇을 의미하는 것일까. AI 자체에 의지(will)가 있고 그래서 착한 의지를 가진 AI를 개발해야 한다는 것일까, 아니면 이를 개발하고 사용하는 사람이 착한 마음을 갖게 해야 한다는 것일까. “AI는 사람을 중심으로 해야 한다”는 명제를 던진 것으로 보아 아마 후자 쪽에 더 무게를 둔 것 같다. AI는 도구에 불과한 것이고 그러므로 사람을 해치는 데 쓰지 말고 사람을 이롭게 하는 데 사용하도록 서로 합의하자는 의미겠다. AI 안전 문제 가운데 조작과 무기화를 세계적인 차원에서 각국 정부가 통제하자는 말도 된다. AI를 개발할 때 편견을 줄이도록 기업들에 독려하는 것도 포함될 듯하다. 안전은 곧 통제인 셈이다. 그런데 여기서 떨치기 어려운 의문이 하나 생긴다. 인간이 AI를 통제할 수 있는가의 문제다. 통제는 어떻게 가능한가. 통제 대상을 투명하게 만들 수 있어야 가능하다. 결국 AI를 투명하게 해야 통제가 가능하다. 그런데 AI는 두 가지 점에서 본질적으로 불투명하다. 하나는 불투명한 사람이 AI를 조종한다는 점이고, 다른 하나는 AI 자체가 투명할 수 없는 기술이라는 거다. 인간의 뇌는 불투명하다. 뇌를 해부할 수는 있어도 뇌의 작동을 통제할 수는 없다. 불투명하기 때문이다. 뇌가 불투명해서 믿을 수 없는 인간을 통제하기 위해 만든 게 도덕과 법과 종교 등이다. 뇌는 불투명하지만 행동은 투명하기 때문이다. 자연도 불투명하다. 불투명한 것은 위협적이다. 자연의 위협을 극복하려고 개발한 것이 과학기술이다. 지금까지 모든 과학기술은 투명했다. 통제 가능했다. AI는 인간이 개발한 기술 가운데 유일하게 불투명한 것이다. AI의 기술적 진화 방향은 인간의 뇌를 닮는 것이고 퍼포먼스에서 인간의 뇌를 뛰어 넘는 것이다. 불투명의 극한으로 가는 것이다. 그런데 AI를 진화시키기 위해서 인간은 더 투명해져야 한다. 인간의 모든 지성과 행위를 숨김없이 AI에게 보여야 하기 때문이다. AI에게 인간은 유리처럼 투명해지고 인간에게 AI는 알 수 없는 미궁인 것이다. 공평은 어쩌면 뇌가 불투명한 존재끼리 투명의 정도를 비슷하게 맞추어가는 과정을 의미할지도 모른다. 어느 한 쪽만 투명하다면 하나의 시선만 남는다. 검사와 범죄자처럼 일방적인 관계가 된다. 신뢰란 불투명한 존재끼리 서로 믿는 일이다. 투명해야 믿는 것은 신뢰가 아니다. 그건 통제다. 신뢰하지 않기 때문에 투명을 요구하는 것이다. AI와 인간은 공평할 수 없다. 그것이 안전 문제 본질이다.

2024.06.03 11:12이균성

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

라인야후, 'AI 기업' 전환 선언..."와우 라이프 플랫폼 되겠다"

[SW키트] 美·日 CISO 커뮤니티 '활발'…韓선 후순위 취급

롯데百, 영등포점 운영권 자진반납…속내는?

정은경 복지장관 후보자 "의정갈등 해결은 의료계와 신뢰 회복부터"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.