• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'무기 AI'통합검색 결과 입니다. (10건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[인터뷰] 쉴드AI 브랜든 쳉 "AI, 핵 대신할 억지력…한국에 '자율 툴킷' 제공할 것"

"네이비 씰(Navy SEALs) 복무 당시의 실전 경험에서 출발해 10년 이상 인공지능(AI)·자율 시스템 개발에 집중해왔습니다. 구조적 설계를 중시한 아키텍처를 바탕으로 한국 방산 기업들이 군사 AI를 독자적으로 구축하도록 지원하고 있습니다. 이는 병력 감소 시대에 지속 가능한 전력을 유지할 수 있는 현실적 해법이자 전쟁을 막는 강력한 억지 수단입니다." 브랜든 쳉 쉴드AI 공동창업자 겸 사장은 지난 29일 서울시 강남구 퀀텀에어로 본사에서 지디넷코리아와 만나 AI·자율 무기의 전쟁 억지력과 주권형 자율성 실현방안에 대해 이같이 말했다. 30일 업계에 따르면 국방 분야에서 AI·자율 시스템의 중요성이 급격히 부각되는 가운데 쉴드AI는 확장 가능한 자율 시스템 아키텍처를 강점으로 내세우고 있다. 이 회사의 기술을 총괄하는 네이선 마이클 최고기술책임자(CTO)는 카네기멜론대 로봇연구소 출신으로, 지난 15년간 자율성 기술을 연구해온 인물이다. 회사는 그가 강조한 '구조 설계가 전부'라는 원칙을 바탕으로 자율 플랫폼을 구축하고 있다. 쉴드AI는 자율 시스템의 상태 추정, 매핑, 장면 이해, 추론, 경로 계획, 제어 등 전체 구성 요소를 수직 통합해 자체 개발하는 역량을 갖추고 있다. 이를 바탕으로 다양한 플랫폼에 자율성을 탑재해왔다. 이 기술의 중심에는 모듈형 AI 자율성 플랫폼인 '하이브마인드 엔터프라이즈(Hivemind Enterprise)'가 있다. 하이브마인드는 신속한 개발, 범용 확장성, 사용자 소유권 구조를 바탕으로 기업들이 자율성을 직접 구축·내재화할 수 있도록 지원한다. 이 플랫폼이 적용된 대표 사례가 수직이착륙 무인기 '브이배트(V-BAT)'다. '브이배트'는 도심 옥상이나 소형 함정에서도 운용 가능한 기동성, 전자전 환경에서의 작전 능력, 정찰·표적 지정 임무 수행 능력을 갖춘 전술 드론이다. 대형 드론 대비 비용·물류 부담이 적으면서도 효과가 입증돼 미국 및 동맹국 군이 전력화 중이다. 쳉 공동창업자는 미국 해군사관학교에서 기계공학을 전공하고 특수부대 네이비 씰을 거쳐 하버드 MBA를 밟은 엘리트 커리어를 밟아왔다. 복무 중이던 지난 2010년대에 AI와 자율성 기술에 빠졌고 지난 1990년대 인터넷 도입기와 유사한 기술 전환점을 목격했다. 닷컴 시대의 IT 기업가들처럼 시대 전환을 몸으로 겪고 싶어 지난 2015년에 형인 라이언 쳉, 지인인 앤드류 라이터와 창업을 결심했다. 그는 "테크 기업가였던 형의 권유로 AI 기술에 관심을 가지게 됐다"며 "이와 동시에 군인으로서 전쟁을 억제하고 평화를 실현하는 것이 내가 진정 가치를 느끼는 유일한 문제라고 느꼈다"고 말했다. 이어 "성공하거나 실패하거나 시도할 가치가 있는 목표라고 생각했다"고 말했다. 이번 방한을 통해 쳉 공동창업자는 쉴드AI의 국내 기술 협력 확대를 공식화했다. 그는 LIG넥스원, 한국항공우주산업(KAI), 퀀텀에어로 등 방산 기업은 물론 국회와 주한미군 관계자, 한국군 고위 인사들을 두루 만났다. 한국에 대해서는 확실한 거점 확대 계획을 갖고 있다. 쉴드에이는 한국 지사를 세울 계획으로, 현재는 퀀텀에어로와 협력 중이다. 국군 외에도 LIG넥스원, KAI 등과도 기술 협력을 추진 중이다. 기업 협력의 핵심은 완제품 제공이 아닌 '하이브마인드 엔터프라이즈' 플랫폼을 통한 자율 기술의 내재화다. 쳉 공동창업자는 '주권 자율성'을 강조했다. 이는 쉴드AI가 타국 기업에게 독립적으로 AI 파일럿 같은 자율 시스템을 자체 개발하고 소유하는 구조를 제공한다는 의미다. 사용자는 플랫폼을 통해 기술을 구현하되 결과물에 대한 지식재산권은 전적으로 해당 기업이 보유한다. 한국이 직면한 인구 감소 문제와 관련해서는 자율성이 결정적 해법이 될 수 있다고 봤다. 병력 감소에도 불구하고 자율 시스템의 확장으로 전력 유지를 실현할 수 있다는 설명이다. 그는 "이제 핵심은 사람을 얼마나 확보하느냐가 아니라 시스템을 얼마나 생산할 수 있느냐"라며 "이는 제조 기반이 탄탄한 한국에 유리한 구조"라고 평가했다. 자율 무기의 윤리 문제에 대해선 분명한 선을 그었다. 살상력 사용 여부는 반드시 인간이 판단해야 한다는 것이다. 미국과 북대서양조약기구(NATO) 역시 같은 기준을 따르고 있으며 쳉 공동창업자 본인의 참전 경험도 이러한 원칙의 기반이 됐다. 일각의 우려와 달리 쳉 공동창업자는 자율 무기가 오히려 가장 효과적인 재래식 억지력(Conventional Deterrence) 수단이 될 수 있다고 강조했다. 일례로 우크라이나에 지난 2022년 수백만 대 드론이 국경에 있었으면 러시아는 침공하지 못했을 것이라며 AI를 통한 대규모 '무력 시위'가 침공 자체를 억제할 수 있다고 주장했다. 브랜든 쳉 쉴드AI 공동창업자는 "AI는 핵무기와는 전혀 다른 차원의 억지력이며 향후 100년간 가장 중요한 전략 자산이 될 것"이라며 "침공을 막는 가장 실질적 수단은 보여줄 수 있는 힘"이라고 말했다. 다음은 브랜든 쳉 공동창업자와 일문일답. Q. 해군사관학교, 네이비 씰, 하버드 MBA까지 이어지는 매우 이례적인 엘리트 경력을 가지고 있다. 지난 2015년, 아직 아무도 AI에 대해 이야기하지 않던 시점에 형제, 동료와 함께 쉴드AI를 창업한 근본적인 동기가 궁금하다. A. 사실 이 커리어를 처음부터 다 설계한 것은 아니다. 처음에는 단지 네이비 씰이 되고 싶었다. 나는 기계공학을 전공했다. 어릴 때부터 기술에 관심이 많았다. 파퓰러 사이언스(Popular Science), 파퓰러 메카닉스(Popular Mechanics) 같은 잡지를 읽으며 자랐다. 형은 기술 기업을 창업해 퀄컴에 매각한 기술 기업가였고 지난 2013~2015년 사이에 내게 AI와 자율성(Autonomous) 기술에 대해 읽어보라고 권했다. 그는 퀄컴 재직 시절 삼성과 무선 전력 분야에서 협업하며 한국에도 자주 왔다. 당시 나는 네이비 씰에 있었고 그때부터 AI와 자율성에 대해 집중적으로 읽기 시작했다. 그 결과 이 두 기술이 인터넷보다 더 큰 변화가 될 거라고 확신하게 됐다. 나는 지난 1990년대 인터넷이 등장하던 시기를 직접 겪었고 1996년엔 나만의 웹사이트도 운영했다. 그때와 마찬가지로 다음 기술적 전환점이 무엇인지 자문했고 그것이 바로 AI와 자율성이라고 판단했다. 피터 틸, 제프 베조스와 같은 인터넷 시대의 젊은 창업가들이 겪었던 변화를 AI 시대에 직접 경험하고 싶었다. 또 창업을 하고 싶다는 욕구도 있었다. 아버지는 소기업을 운영하셨고 형도 창업가였다. 어떤 문제를 해결할 수 있을지 스스로에게 계속 질문했고 결국 군 복무 중 겪은 문제들로 되돌아가게 됐다. 씰 팀에서는 불평하지 말라고 교육받는다. 이 때문인지 몰라도 일반적인 B2C 문제에는 관심이 없었고 비즈니스 문제에 대한 경험도 없었다. 결국 다시 군에서 겪은 문제들, 즉 국가 안보와 세계 평화 문제로 귀결됐다. 향후 2035년의 군대에서 AI와 자율성이 어떤 역할을 해야 할지를 고민했다. 결론은 명확했다. AI는 모든 시스템, 즉 함정, 잠수함, 항공기 등을 구동해야 하며 인간을 능가하는 성능(Superhuman Performance)을 낼 수 있다고 판단했다. 또 하나의 중요한 동기는 일론 머스크의 문제 정의 방식이다. 당시 그는 인터넷, 지속가능 에너지, 우주 탐사라는 큰 문제를 선택해 사업화했다. 나도 마찬가지로 "내가 동기 부여를 느끼는 해결할 수 있는 큰 문제는 무엇인가"를 자문했다. 그 답은 전쟁의 억제였다. 전쟁은 여전히 수백만 명에게 영향을 미치는 문제지만 일론 머스크나 제프 베조스 같은 인물도 다루지 않고 있었다. 그렇다면 누군가는 이 문제를 직접 해결하려고 시도해야 한다고 생각했다. 전쟁을 억제할 수 있는 기술을 만든다면 성공 여부와 무관하게 시도 자체로 가치가 있다고 봤다. Q. 앞서 창업 동기에 대해 설명해주었다. 그렇다면 현재 쉴드AI가 보유한 핵심 기술 역량은 무엇인가? A. 쉴드AI의 가장 큰 기술적 강점은 자율 시스템 아키텍처에 대한 이해와 그것을 구현하는 능력이다. 우리 최고기술책임자(CTO)인 네이선 마이클 박사는 쉴드AI에 합류하기 전까지 15년간 자율 시스템을 연구해왔다. 그는 카네기멜론대(CMU) 로봇 연구소에서 교수로 재직하며 해당 대학 내 최대 규모의 교수 주도 연구실인 복원력 지능 시스템 연구실(Resilient Intelligent systems Lab)을 운영했다. CMU는 지난 10년간 AI와 자율성 분야에서 미국 내 1위를 차지해온 기관이다. 우리가 자율 시스템을 어떻게 구축할지 고민하던 시기 관련 논문을 수없이 검토했는데 그 중 상당수에서 네이선의 이름을 발견했다. 지난 2016년에 그를 만나 자문을 받기 시작했고 2017년에 정식으로 합류시킬 수 있었다. 처음에는 최고과학책임자(CSO)로, 이후에는 최고기술책임자(CTO)가 되었다. 네이선이 강조한 것은 자율 시스템의 '아키텍처'가 전부라는 점이다. 이는 마치 초고층 빌딩을 짓는 일과 같다. 설계가 잘못되면 구조적으로 100층짜리 빌딩을 세울 수 없듯 잘못된 아키텍처 위에서는 복원력 있고 지능적인 자율 시스템을 만들 수 없다. 많은 자율주행 회사들이 실패한 것도 이 때문이다. 방위산업 분야에서는 이런 시도가 많지 않았지만 우리는 설계부터 제대로 시작했고 그 덕분에 지금까지 확장 가능한 자율 시스템을 구축할 수 있었다고 본다. Q. 쉴드AI가 자체적인 AI 모델이나 칩을 개발하고 있는지 궁금하다. 또 많은 프런티어 AI 기업들이 서로 협력을 하고 이를 공식적으로 발표하는데 이런 형태의 협력 관계가 있는가? A. 쉴드AI는 AI와 자율성을 직접 구축할 수 있는 역량을 갖추고 있다. 지난 2015년부터 그 일을 해오고 있기 때문이다. 자율 시스템은 기본적으로 지각(Perception), 인지(Cognition), 행동(Action)으로 구성된다. 인간이 감각으로 세상을 인식하고 뇌로 판단한 후, 근육과 골격을 움직이는 방식과 같다. 자율주행차, 휴머노이드 로봇, 그리고 우리 '하이브마인드' 기반 무인 시스템 모두 동일한 구조로 작동한다. 세부적으로는 상태 추정(State Estimation), 매핑(Mapping), 장면 이해(Scene Understanding), 추론(Reasoning), 경로 계획(Path Planning), 제어(Control) 같은 모듈들이 있으며 대학이나 연구기관에 따라 명칭은 조금 다르지만 원리는 동일하다. 우리는 이 전반을 다룰 수 있는 기술을 보유하고 있고 그걸 계속 구축해왔다. 외부 기업들과의 협력 관계에 대해 구체적으로 누구와 어떤 일을 하고 있는지는 말하긴 어렵지만 그런 협력의 이점이 있다는 점은 인정한다. 다만 우리가 다른 기업들과 협력할 때는 매우 신중하게 접근한다. 단순한 보여주기식 제휴는 하지 않는다. 어떤 기업들은 존재감을 부각하기 위해 협력 발표를 하기도 한다. 쉴드AI는 그런 방식을 쓰지 않는다. 우리가 어떤 파트너십을 맺거나 공식 발표를 할 때는 그 뒤에 실제 의미와 실질적인 목적이 반드시 존재한다. Q. 이번 방한 기간 동안 어떤 활동을 했는가? 지금까지 어떤 한국 인사들을 만났고 어떤 한국 기업들과 접촉했는지 궁금하다. A. 방한 중 LIG넥스원과 한국항공우주산업(KAI)의 고위 경영진을 비롯해 여러 한국 기업들과 만났다. 국제해양방위산업전(MADEX) 행사 부스에 참가해 많은 기업들이 방문했지만 내가 모든 미팅에 직접 참석하진 않았다. 대신 우리 팀이 대부분의 회의에 참여했다. 한국군과 주한미군의 고위 관계자들도 만났고 국회와도 면담을 가졌다. 만난 사람과 기관이 많아 전체 리스트를 다 기억하긴 어렵다. Q. 현재 퀀텀에어로, LIG넥스원 등과는 어떤 방식으로 협력하고 있는가? 또 한국에 지역 사무소를 설립할 계획이 있는지도 함께 듣고 싶다. A. 향후에 한국에 지사를 설립하는 것은 100% 확정된 사항이다. 이미 우리는 퀀텀에어로와 협력 중이며 지금 있는 이 퀀텀에어로 사무실에도 오늘 오전 쉴드AI 엔지니어가 함께 있었다. 향후에도 한국 내 거점을 확대해나갈 계획이다. 한국 기업들과 협력해 그들이 자율성을 스스로 개발하고 내재화할 수 있도록 역량을 강화하는 것이 핵심 목표다. 물론 한국군과는 우리의 항공기인 '브이배트' 관련 협력도 하고 있다. 다만 LIG나 KAI와 같은 기업들과의 협력은 조금 다른 성격이다. 이들은 자체적으로 자율성 기술을 개발하고 이를 수익화하며 고객 시장에 내놓는 걸 목표로 하고 있다. 우리는 이들이 그걸 실현할 수 있도록 '하이브마인드 엔터프라이즈' 플랫폼을 통해 기술적으로 지원하고 있다. Q. 한국은 소버린 AI(Sovereign AI)에 큰 관심을 보이고 있다. 주권형 AI가 가능한지, 어떻게 달성할 수 있을지에 대한 관심이 높다. 이에 대해 쉴드AI는 어떤 관점을 가지고 있으며 한국의 소버린 AI 구축에 어떤 기여를 할 수 있다고 보는가? A. 쉴드AI는 '주권형 자율성(Sovereign Autonomy)' 구축을 위한 도구와 인프라를 제공하는 데 집중하고 있다. '하이브마인드 엔터프라이즈'는 일종의 공구 세트다. 주권형 자율성을 구축하기 위한 망치, 렌치, 드라이버 같은 역할을 한다. 우리는 LIG넥스원이나 KAI에 '주권형 자율성' 기술을 완성품 형태로 판매하려는 것이 아니다. 그들이 자율 시스템, 일례로 AI 파일럿을 스스로 개발할 수 있도록 도구와 기반을 제공하는 것이다. 장기적으로는 보다 많은 한국 기업들과 협력해 각자가 독자적인 자율 시스템을 개발하고 내재화할 수 있게 하는 것이 목표다. 그 과정에서 만들어지는 지식재산권(IP)은 해당 한국 기업들이 전적으로 소유하게 된다. 일례로 마이크로소프트(MS) 워드를 사용해 문서를 작성한다고 해서 문서 소유권이 마이크로소프트에 있지 않듯 '하이브마인드'로 구축한 자율성 기술은 사용자 기업이 소유하게 된다. 이것이 우리가 생각하는 주권형 자율성의 실질적 의미다. Q. 한국은 징병제를 유지하고 있는 동시에 출산율 0.78이라는 극단적인 인구 구조를 안고 있다. AI와 자율 시스템은 이같은 인구 구조 문제를 완화할 수 있는 핵심 수단이 될 수 있다. 쉴드AI는 인간 병력과 AI 전력을 어떻게 조합해가는 '하이-로우 믹스' 전략을 구상하고 있는가? A. 핵심은 인간과 기계의 팀 구성, 즉 '휴먼-머신 팀'이라고 본다. 어제 들은 바로는 현재 한국의 병력 규모는 약 50만~60만 명 수준인데 출산율 문제로 향후 10년 내 30만 명 수준으로 감소할 것이라고 한다. 전통적으로 보면 군사력의 절반이 줄어드는 셈이다. 그럼에도 자율성과 로보틱스를 활용하면 인구 감소에도 불구하고 동일한 수준의 전력을 유지할 수 있다. 이런 의미에서 자율성의 가장 큰 전략적 이점은 병력 숫자에 의해 제한되지 않는다는 점이다. 이제는 "얼마나 많은 인력을 확보하느냐"가 아니라 "얼마나 많은 시스템을 생산할 수 있느냐"가 핵심이다. 다행히도 한국은 이미 강력한 산업 기반과 제조 역량을 입증해왔다. 자율성을 받아들인다면 이 산업 기반과 결합해 한국은 충분히 대응 가능한 구조를 만들 수 있다고 본다. Q. 군사 AI를 논의할 때마다 윤리와 안전 문제가 함께 제기된다. 구체적으로 AI의 '전략 수립'과 '목표 설정 및 조준'은 분명히 다른 차원의 문제다. 쉴드AI는 AI의 자율적 판단을 어디까지 허용하고 어떤 지점에서 인간의 개입(Human-in-the-Loop)이 반드시 필요하다고 보는가? A. 살상력(Lethal Force)의 사용 여부는 반드시 인간이 판단해야 한다고 본다. 나는 과거 네이비실 팀에서 전장에서 살상력을 사용할지 여부를 스스로 결정해야 했던 경험이 있다. 그 경험을 바탕으로, 이런 결정은 인간이 도덕적으로 내려야 한다고 확신한다. 이것이 쉴드AI의 정책이고 미국의 정책이며 나토(NATO)의 정책이다. 아마도 한국 역시 같은 기준을 따르고 있을 것이다. 이 원칙이 의미하는 바는 명확하다. 자율 시스템이 어떤 대상을 공격하거나 파괴할 수 있는 상황이 오면 반드시 사전에 인간의 승인을 요청해야 한다. 우리는 이 방식으로 자율성과 윤리적 통제 간 균형을 유지하고 있다. Q. 고(故) 헨리 키신저는 AI 무기가 핵무기와는 전혀 다른 패러다임이며 선제적이고 비가역적인 전쟁을 촉발할 수 있다고 경고했다. 쉴드AI는 이러한 우려에 대해 어떤 입장을 가지고 있으며 이에 대한 기술·정책적 대비는 어떻게 하고 있는가? A. 오히려 나는 AI 및 자율성은 향후 100년 동안 가장 중요한 '재래식 억지력(Conventional Deterrence)'이 될 것이라고 본다. 우크라이나에서 '브이배트'를 운용 중인 이용자들과 대화해 보면 모두가 "지금 가진 능력을 3년 전에 갖고 있었다면 러시아가 국경을 넘지 못했을 것"이라고 말한다. 국경 상공에 드론 스웜을 수백만 대 수준으로 띄울 수 있었다면 침공 자체를 억제했을 것이란 얘기다. 구체적으로 이름을 밝힐 수 없지만 우리는 이같은 사명을 위해 현재 여러 국가와 협력 중이다. 내가 볼때 억지력의 본질은 우리가 가진 힘을 보여주는 '무력시위(Show of Force)'에 있다. 생각해보라. 미국은 분쟁지역의 연안에 항모 전단을 보내 무력을 과시한다. 상대국을 위축시켜 분쟁이 타국에 확산되는 것을 억제하는 것이다. 이제 국가들이 만약 자율 드론 수백만 대를 전개할 수 있는 능력을 가진다면 이는 침략자에 대한 엄청난 억지력으로 작용할 것이다. 이에 나는 AI가 가장 훌륭한 재래식 전략 억지력이 될 것이라고 믿는다.

2025.05.30 15:12조이환

北 김정은, AI 자폭드론 참관…러 지원 가능성↑

북한이 인공지능(AI)을 탑재한 자폭 드론 생산 확대를 추진 중인 것으로 알려졌다. 28일 BBC 등 외신에 따르면 김정은 북한 국무위원장은 AI 기반 무기 체계를 본격화한 것으로 전해졌다. 조선중앙통신은 김 위원장이 활주로에서 AI 자폭 드론을 둘러보는 사진도 공개했다. 북한은 지난해 8월 AI 자폭 드론을 처음 공개했다. 이 드론은 '로이터링 무기'로 분류되며 목표물에 돌진해 자폭하는 방식으로 작동한다. 외신은 해당 드론이 러시아 기술 지원을 받은 것이라고 분석했다. 북한이 최근 병력을 러시아에 파견하는 등 양국 간 군사 협력을 강화한 모습을 보여서다. 앞서 북한은 지난해 블라디미르 푸틴 대통령과 상호 방위 협정을 체결한 바 있다. 지난달 북한이 러시아 쿠르스크 전선에 병력을 재배치했다는 보도도 이어졌다. 이 외에도 북한은 조기경보기로 추정되는 항공기도 사진을 통해 공개했다. 해당 기체는 민항기 형태로 전투 지역 상공에서 레이더로 정세를 파악할 수 있다. 미국 코넬대 제임스 패튼 로저스 브룩스 기술정책연구소 소장은 "북한이 군사 전략을 드론 중심으로 재편하고 있다"며 "AI 무기 알고리즘이 불안정하면 한반도 안보 상황이 우발적으로 악화될 수 있다"고 밝혔다.

2025.03.28 10:08김미정

"10년 뒤 인류 멸망할 수 있다"…국내 1세대 AI 연구자, 섬뜩한 발언한 이유는

"미국 트럼프 행정부가 들어서면서 인공지능(AI) 안전보다 발전에 더 주안점을 두기 시작했다는 점이 우려됩니다. 이렇게 되면 10년 뒤에 인류는 멸망할 수 있습니다." 한상기 테크프론티어 대표는 최근 서울 강남구 모두의연구소 강남캠퍼스에서 진행된 '국방 인공지능 혁신 네트워크' 행사에 연사로 참석해 이처럼 강조했다. 한 대표는 서울대 컴퓨터공학과를 졸업하고 카이스트에서 전산학 석·박사를 마친 국내 1세대 AI 연구자다. 이날 'AI 안전 : 주요 토픽과 해결할 문제들'이란 주제로 발표에 나선 한 대표는 최근 범용인공지능(AGI)의 능력이 향상되면서 추가적인 리스크들이 점진적으로 나타나는 것에 대해 우려를 표했다. 20일 업계에 따르면 AI는 고도화 수준에 따라 '제한적 인공지능(ANI)', 'AGI', 'ASI'로 구분한다. 이 중 AGI는 ANI인 오픈AI '챗GPT'나 구글 '제미나이'와 달리 사전 학습된 데이터와 알고리즘에 의존하지 않고도 새로운 문제를 분석하고 해결책을 제시할 수 있는 AI다. 인간 수준의 일반 지능을 갖추고 논리력과 창의적 추론 능력을 보유한 AI로 설명된다. 추론 능력이 향상된 오픈AI의 최신 모델 'o1', 'o3' 등은 ANI에서 AGI로 이행하는 단계에 있다는 평가를 받는다. 그 다음 단계인 ASI는 인간을 뛰어넘는 지적 능력을 갖춘 AI를 의미한다. 스스로 목표를 설정하고 개선하는 능력이 탁월해 인간이 상상할 수 없는 수준의 복잡한 문제를 창의적으로 해결할 수 있다. AI 간의 자발적 소통이 가능해 인류가 전유물로 여겨온 '집단 지성'도 구현할 수 있다. 한 대표는 "데미스 하사비스 구글 딥마인드 최고경영자(CEO)는 5년, 다리오 아모데이 앤트로픽 CEO는 2~3년 안에 AGI 시대가 올 것이라고 얘기하고 있다"며 "적어도 10년 안에 온다고 보면 이에 대한 (안전성과 관련해) 대비를 해 나갈 필요가 있다"고 강조했다. 또 한 대표는 AI를 '핵무기' 수준으로 봐야 한다고 강조하며 AI 발전과 함께 안전성도 같이 고려해 나가야 한다고 주장했다. 그는 "최근 앤트로픽 클로드 3.7이나 오픈AI o3 같은 모델들이 출시되면서 인터넷에 존재하지 않는 정보를 추론 능력으로 답변을 만들어지는 사례들이 늘어나고 있다"며 "생화학 무기, 핵무기 등에 이 같은 AI가 사용되기 시작할 경우 안전성이 확보되지 않으면 큰 문제가 될 것"이라고 지적했다. 그러면서 "이제는 AI 모델뿐 아니라 시스템, 애플리케이션까지 확대해 AI와 관련된 범죄 가능성에 대해 고민해봐야 할 시점"이라며 "영국 등에선 이미 안전성뿐 아니라 국가안보적인 관점에서 AI를 들여다 보기 시작했다는 점에서 우리나라도 함께 고민해 봐야 할 것"이라고 덧붙였다. 이날 '딥시크를 포함한 추론형 AI에 대한 이해'를 주제로 강연에 나선 이진원 하이퍼엑셀 CTO는 AI가 점차 발전하면서 인간이 통제할 수 있는 영역을 점차 벗어나고 있다는 점을 주목했다. 또 앞으로는 AI가 AI를 컨트롤하는 방향으로 기술 발전을 해 나가야 하지만 데이터가 AI 발전 속도를 따라가지 못하고 있다는 점에서 우려를 표했다. 더불어 이 CTO는 오픈AI가 생각하는 AI 5단계를 소개하며 현재 AI가 ANI에서 AGI로 넘어가는 과정에서 데이터 학습량을 더 늘리기 위해 엔비디아가 그래픽처리장치(GPU)를 더 크게 만들 필요가 있다는 점도 강조했다. 이 CTO는 "딥시크처럼 저렴한 모델들이 나오면서 앞으로 AI가 실제 산업에 더 다양하게 활용될 것으로 보인다"며 "GPU 수요는 앞으로 더 폭발적으로 늘어날 것으로 보인다"고 관측했다. 이어 "딥시크 같은 기업들이 속속 나오고 있지만 오픈AI, 구글 등 빅테크의 AI 기술력을 따라가기에는 쉽지 않을 것"이라며 "다만 우리나라가 AI 경쟁력을 키우기 위해선 중국 딥시크 같은 모델을 벤치마킹해야 한다"고 주장했다. 이날 행사에선 국방기술진흥연구소 박삼준 AI PD와 김일환 삼성SDS 그룹장, 최민석 ETRI AI 안전연구소 박사 등이 참여한 패널 토의도 '국방분야 생성형 AI 도입 및 활용 방향'을 주제로 진행됐다. 각 패널들은 AI의 통제력 상실을 막지 않으면 국방분야에 생성형 AI를 도입하는 것이 쉽지 않을 것으로 봤다. 최 박사는 "무기 체계가 알고리즘으로 움직여지는 상황에서 사람 통제를 벗어나 (AI를 통해) 자의적으로 움직여질 경우 상대뿐 아니라 우리에게도 그 피해가 발생할 것이란 점이 우려된다"며 "이를 막기 위해 여러 단계의 안전장치를 고려해야 하지 않을까 싶다"고 강조했다. 김 그룹장은 우리나라가 국방 분야에서 AI를 활용하기 위해선 양질의 데이터를 안전하게 확보하는 동시에 클라우드로 전환하는 것이 가장 중요하다고 주장했다. 또 미군이 팔란티어와 손잡고 국방 전 분야를 클라우드로 전환해 활용하는 사례를 들어 우리나라도 클라우드로 점차 전환해 나갈 필요가 있다고 지적했다. 현재 미군은 팔란티어의 SaaS(클라우드 기반 서비스형 SW)를 구독해 매일 시스템을 업데이트 하고 활용하고 있다. 김 그룹장은 "우리 군 역시 JADC2(합동 전 영역 동시통합지휘통제) 등을 추진하며 국방 AI에 대한 구체적인 계획을 가지고 있는 것으로 안다"며 "이를 실행하기 위해선 예산 확보가 필수적으로, 이 문제만 해결되면 우리나라군도 굉장히 빠르게 (미군 수준으로) 따라갈 수 있을 것이라고 생각한다"고 말했다.

2025.03.20 17:13장유미

"국가 안보 고려"…구글, AI 원칙서 '무기 개발 금지' 문구 삭제

구글이 인공지능(AI)을 무기 개발과 감시에 활용하지 않겠다는 서약을 자사 웹사이트에서 삭제해 AI의 군사적 이용 가능성을 둘러싼 논란이 불거지고 있다. 5일 테크크런치 등 외신에 따르면 구글은 최근 AI 원칙 페이지를 개정하면서 '추구하지 않을 기술(applications we will not pursue)' 목록을 삭제했다. 이 목록에는 AI의 무기화 및 감시 기술 개발을 하지 않겠다는 내용이 포함돼 있었으나 현재는 찾아볼 수 없다. 구글은 이번 변경에 대한 공식 입장을 내놓지 않았다. 다만 내부 블로그를 통해 "국가 안보를 지원하는 AI를 만들기 위해 같은 가치를 공유하는 기업, 정부, 조직들이 협력해야 한다고 믿는다"며 "책임 있는 AI 개발을 위해 국제법과 인권 원칙을 준수할 것"이라고 밝혔다. 최근 구글은 미군 및 이스라엘 군과의 클라우드 서비스 계약을 체결하면서 내부 직원들의 반발을 산 바 있다. 지난 2018년에도 미 국방부 프로젝트 '메이븐(Maven)' 참여로 인해 내부 논란이 발생해 이후 AI 무기 개발을 하지 않겠다고 선언했다. 테크크런치는 "구글은 지속적으로 자사 AI가 인간을 해치는데 사용되지 않는다고 주장해 왔다"면서도 "다만 미군 AI 책임자가 최근 일부 기업의 AI 모델이 '킬 체인'을 가속화하고 있다고 밝힌 바 있다"고 설명했다.

2025.02.05 10:08조이환

美·中 "핵무기 사용, 인간이 결정"…AI 관여 배제 합의

미국과 중국이 핵무기 사용에 있어 인간의 통제(human in the loop)를 유지해야 한다고 합의했다. 18일 로이터 통신에 따르면 조 바이든 미국 대통령과 시진핑 중국 국가주석은 지난 16일 페루 리마에서 열린 회담에 참가해 핵무기와 관련된 의사결정에서 인공지능(AI)의 관여를 배제하기로 상호 합의했다. 이와 함께 양국은 AI의 군사적 활용에 신중히 접근해야 한다는 데도 공감했다. 백악관 관계자는 "바이든 대통령은 핵무기 사용 결정에 있어 인간의 통제를 유지할 필요성을 시 주석과 함께 확인했다"며 "군사 분야에서 AI 기술의 잠재적 위험을 신중히 고려하고 책임감 있게 개발할 필요성을 강조했다"고 밝혔다. 이 같은 내용은 중국 정부의 공식 회의 요약에도 반영됐으나 중국 외교부는 로이터의 논평 요청에는 응답하지 않았다. 이번 합의는 미국이 중국과의 핵무기 협상을 꾸준히 촉구해온 가운데 이뤄졌다. 미국은 중국의 핵무기 보유량 확대와 군사적 현대화에 대한 우려를 지속적으로 제기해왔다. 현재 중국은 공식적인 핵무기 보유량을 공개하지 않고 있다. 그럼에도 최근 서방 평가에 따르면 중국은 이미 500개의 핵탄두를 보유하고 있으며 오는 2030년까지 1천 개 이상의 탄두를 획득할 것으로 전망되고 있다. 로이터 통신은 "미중 AI 논의는 올해 5월 시작된 바 있으나 핵무기 의사결정과는 직접적인 관련이 없었다"며 "양국의 이번 논의는 AI 관련 협력 논의와는 별개로 이뤄졌다"고 분석했다.

2024.11.18 09:56조이환

국방 AI 무기체계 평가 기술, 씽크포비엘이 '선도'

씽크포비엘이 고품질 인공지능(AI) 무기체계를 획득하고 국방 경쟁력을 강화할 수 있는 시스템 수준 평가 방안을 제시하며 그 역량을 입증했다. 씽크포비엘은 롯데호텔에서 진행된 '2024 인공지능의 책임 있는 군사적 이용에 관한 고위급회의(REAIM)'에서 AI 무기체계의 시스템 수준 평가 방안을 제시했다고 10일 밝혔다. 이번 행사는 AI 무기체계의 신뢰성과 성능을 확보하는 데 중점을 두고 전 세계의 군, 정부 관계자, 관련 전문가들에게 해당 방안을 공유하며 관심을 끌었다. 씽크포비엘은 AI 무기체계의 성능을 평가할 때 '견고성', '설명가능성', '의도부합성'을 세가지 주요 기준으로 삼았다. 회사에 따르면 이러한 기준들은 AI 기술이 적용된 무기체계가 실제 전투 상황에서도 성능을 발휘하기 위해서는 필수적이다. 회사는 올해 상반기부터 국방기술품질원과 협력해 AI 무기체계의 시스템 수준 평가 방안 연구를 진행 중인 것으로 알려졌다. 이 연구는 AI 기술 발전 속도를 따라잡지 못한 기존 무기체계 품질 관리 방안을 보완하기 위한 것이다. 연구를 통해 도출된 평가 방안이 적용되면 군은 보다 신뢰할 수 있는 AI 무기체계를 획득할 수 있을 것으로 기대된다. 씽크포비엘 관계자는 "AI 적용 무기체계 시스템 평가기법이 고도화하면 신뢰할 수 있는 고품질 AI 무기체계 획득이 가능해진다"며 "기술 격변기인 지금 관련 투자가 일회성에 그치지 않도록 정부 차원 관심과 지원이 절실하다"고 강조했다.

2024.09.10 16:33조이환

[현장] REAIM 고위급회의 "책임 있는 군사 AI 통제, 국제 평화 열쇠"

전 세계 전문가들이 한 곳에 모여 군사 인공지능(AI)의 위험을 통제하고 책임 있게 활용해야 한다고 입을 모았다. 국제 평화와 안보를 보장할 유일한 방안이기 때문이다. 대한민국 외교부는 9일부터 이틀간 서울 롯데 및 웨스틴조선 호텔에서 국방부와 함께 '제2차 2024 인공지능의 책임있는 군사적 이용에 관한 고위급 회의(REAIM)'를 개최한다. 이 회의는 네덜란드, 싱가포르, 케냐, 영국이 공동으로 주최하며 총 90여 개국이 참석한다. 'REAIM 고위급회의'에는 전 세계 정부 대표단뿐만 아니라 산업계·학계·국제기구·시민사회·청년 분야에서 2천 명 이상의 관련 인원이 참여한다. 이번 회의에서는 AI의 위험과 윤리적 문제를 해결하기 위한 규범 정립과 구체적인 대응 방안에 대해 토론이 이뤄진다. 조태열 외교부 장관은 9일 'REAIM 고위급회의' 개회 연설에서 AI의 군사적 활용이 가져올 변화에 대해 경고했다. 이에 따라 군사 AI를 책임 있게 통제해야 한다는 점을 강조했다. 조 장관은 "군사 AI가 전략과 야전 사령관의 역할을 변화시키며 역할 간 경계를 허물고 있다"며 "이에 따라 기술적 변화가 전장만 아니라 국제 질서에도 영향을 미치게 됐으므로 AI를 책임 있게 다룰 필요가 있다"고 강조했다. 또 조 장관은 AI가 대량 살상 무기로 전락해서는 안 되며 이를 방지하기 위한 최소한의 보호 조치가 마련돼야 한다고 주장했다. 그는 "이번 'REAIM' 회의는 AI가 국제 안보에 미칠 영향을 평가하고 국제법에 따라 AI를 적용할 방안을 논의하는 장이 돼야 한다"며 "다자간 협력은 제네바 협약의 사례처럼 AI에도 마찬가지로 적용돼야 한다"고 밝혔다. 이어 김용현 대한민국 국방부 장관은 AI 기술을 통한 국방 혁신에 대해 논의했다. 김 장관은 "최근 우크라이나 전쟁에서 드론 기술이 다윗의 돌팔매 역할을 했다"며 "AI 기술은 군사 작전 능력을 비약적으로 향상시키고 있다"고 밝혔다. 이어 김 장관은 대한민국도 국방혁신 4.0을 통해 AI 기반의 강군을 건설하고 있다고 강조했다. 이와 동시에 AI의 윤리적 기준 준수를 위해 국제사회와의 협력을 지속하겠다는 의지를 밝혔다. 그는 "이번 회의는 AI의 책임 있는 군사적 이용에 대한 균형 잡힌 이해를 제공할 것"이라며 "국군 또한 책임있는 군사 AI의 국제적인 기반을 강화하는 데 기여하겠다"고 밝혔다. 개회식의 마지막 연사로 참가한 루벤 브레켈만스 네덜란드 국방부 장관은 이번 회의의 중요성을 강조하며 네덜란드와 한국의 오랜 파트너십을 언급했다. 그는 "네덜란드 선원 헨드릭 하멜이 조선에 표류한 400년 후 이제 두 나라는 AI 기술로 협력 범위를 넓혔다"며 "지난 해 네덜란드에서의 제1차 회의에서 원칙에 대해 합의했으니 이제 군사 AI에 대한 보다 구체적인 논의를 하길 희망한다"고 밝혔다. 그러면서 "AI 개발에 있어 책임 있는 방식을 택하도록 노력해야 한다"며 "AI라는 배가 좌초되지 않도록 각국이 함께 행동할 것"을 강조했다.

2024.09.09 11:28조이환

생성형 AI는 과연 투명해질 수 있을 것인가

우리 정부는 인공지능(AI) 개발이 지향해야 할 가치로 세 가지를 꼽는다. 안전·포용·혁신. 강도현 과학기술정보통신부 2차관은 지난 달 29일(현지시간) 스위스 제네바에서 열린 '선의를 위한 인공지능(AI for Good) 글로벌 정상회의 2024' 행사에서 “AI는 사람을 중심으로 해야 한다”며 이를 강조했다. 안전·포용·혁신은 그 전주에 열린 'AI 서울 정상회의'에서 각국 정상이 합의한 지향이기도 하다. 세 가지 가치 중에서 현재 가장 뜨거운 것은 혁신이다. 혁신은 기술과 비즈니스 모델 개발에 방점이 찍혀 있다. 2022년 11월 챗GPT 출시 이후 AI가 인류의 최대 핫 기술이 된 것을 의심하는 사람은 없다. 많은 나라가 명운을 걸고 AI 산업 진흥에 국가 대항전을 펼치고 있으며, 기업도 사활이 걸린 문제로 인식하고 있다. 그중에서도 AI 모델과 이를 가능하게 할 AI 반도체 개발 경쟁이 치열하다. 혁신이 기술과 산업의 영역이라면 포용은 정치의 몫이다. AI 기술이 주목되는 까닭은 그것을 가진 자와 못 가진 자의 격차가 크게 벌어질 것이라는 게 자명하다는 데 있다. 그 격차는 사회적 혼란을 부른다. 이 혼란을 줄이기 위해서는 기술 발전으로 인한 혜택을 넓혀야 한다. 일자리 변화에 대한 대책을 세우고, 새로운 시대에 맞게 교육도 해야 한다. 산업보다는 정치가 담당해야 하는 역할들이다. 안전은 기술의 문제로 인식되곤 한다. 현재 AI와 관련된 안전 문제로 거론되는 사안은 시스템 오류, 편견, 조작, 무기화 등이다. 시스템 오류의 경우 기술이 갖는 비완벽성이라는 일반적 한계이고 편견의 경우 잘못된 학습으로 나타난 AI의 고유한 오류다. 조작과 무기화는 AI 기술 자체의 문제라기보다 이를 운용하는 인간의 문제다. 여하튼 이 모든 것을 기술로 해결해야 한다는 믿음이 있는 듯하다. 안전 문제는 그런데 기술 사안이기도 하면서 근본적으로는 철학의 영역이기도 한 것 같다. 정상회의의 테마가 '선의를 위한 인공지능(AI for Good)'이라는 게 예사롭지 않다. '선의(Good)'라는 것은 구체적으로 무엇을 의미하는 것일까. AI 자체에 의지(will)가 있고 그래서 착한 의지를 가진 AI를 개발해야 한다는 것일까, 아니면 이를 개발하고 사용하는 사람이 착한 마음을 갖게 해야 한다는 것일까. “AI는 사람을 중심으로 해야 한다”는 명제를 던진 것으로 보아 아마 후자 쪽에 더 무게를 둔 것 같다. AI는 도구에 불과한 것이고 그러므로 사람을 해치는 데 쓰지 말고 사람을 이롭게 하는 데 사용하도록 서로 합의하자는 의미겠다. AI 안전 문제 가운데 조작과 무기화를 세계적인 차원에서 각국 정부가 통제하자는 말도 된다. AI를 개발할 때 편견을 줄이도록 기업들에 독려하는 것도 포함될 듯하다. 안전은 곧 통제인 셈이다. 그런데 여기서 떨치기 어려운 의문이 하나 생긴다. 인간이 AI를 통제할 수 있는가의 문제다. 통제는 어떻게 가능한가. 통제 대상을 투명하게 만들 수 있어야 가능하다. 결국 AI를 투명하게 해야 통제가 가능하다. 그런데 AI는 두 가지 점에서 본질적으로 불투명하다. 하나는 불투명한 사람이 AI를 조종한다는 점이고, 다른 하나는 AI 자체가 투명할 수 없는 기술이라는 거다. 인간의 뇌는 불투명하다. 뇌를 해부할 수는 있어도 뇌의 작동을 통제할 수는 없다. 불투명하기 때문이다. 뇌가 불투명해서 믿을 수 없는 인간을 통제하기 위해 만든 게 도덕과 법과 종교 등이다. 뇌는 불투명하지만 행동은 투명하기 때문이다. 자연도 불투명하다. 불투명한 것은 위협적이다. 자연의 위협을 극복하려고 개발한 것이 과학기술이다. 지금까지 모든 과학기술은 투명했다. 통제 가능했다. AI는 인간이 개발한 기술 가운데 유일하게 불투명한 것이다. AI의 기술적 진화 방향은 인간의 뇌를 닮는 것이고 퍼포먼스에서 인간의 뇌를 뛰어 넘는 것이다. 불투명의 극한으로 가는 것이다. 그런데 AI를 진화시키기 위해서 인간은 더 투명해져야 한다. 인간의 모든 지성과 행위를 숨김없이 AI에게 보여야 하기 때문이다. AI에게 인간은 유리처럼 투명해지고 인간에게 AI는 알 수 없는 미궁인 것이다. 공평은 어쩌면 뇌가 불투명한 존재끼리 투명의 정도를 비슷하게 맞추어가는 과정을 의미할지도 모른다. 어느 한 쪽만 투명하다면 하나의 시선만 남는다. 검사와 범죄자처럼 일방적인 관계가 된다. 신뢰란 불투명한 존재끼리 서로 믿는 일이다. 투명해야 믿는 것은 신뢰가 아니다. 그건 통제다. 신뢰하지 않기 때문에 투명을 요구하는 것이다. AI와 인간은 공평할 수 없다. 그것이 안전 문제 본질이다.

2024.06.03 11:12이균성

"인간 노린 AI 무기, 오펜하이머 모멘트"…해외서 규제 논의 본격화

"향후 10년 이내에 자율적으로 인간을 죽이는 로봇 무기가 등장할 것으로 보고 있습니다." 인공지능(AI) 분야 대부로 불리는 제프리 힌턴 캐나다 토론토대 명예교수가 최근 이처럼 경고한 가운데 각국 전문가들이 이를 규제하기 위한 방안 마련을 위해 머리를 맞댔다. 30일 블룸버그 통신에 따르면 최근 100개국 이상의 민간, 군사, 기술 관계자들은 지난 29일 오스트리아 비엔나에서 AI와 군사 기술 결합을 경제적으로 제재할 방안을 마련하기 위해 모였다. 전쟁이 벌어지고 있는 우크라이나와 팔레스타인 가자 지구를 중심으로 최근 자율 무기 시스템이 빠르게 확산되고 있어서다. 실제 우크라이나군은 개전 후 두 달 만에 460대에 달하는 러시아 전차와 2천 대에 육박하는 장갑차를 무인기를 통해 파괴했다. 러시아 역시 AI 시각 식별(AIVI) 기술로 표적을 실시간으로 분류하는 KYB-UAV 등을 통해 우크라이나 군의 기동력을 효과적으로 봉쇄했다. 세계 최초로 AI 기반 완전자율 차량을 실전 배치한 이스라엘은 이미 2016년부터 팔레스타인 가자지구와의 경계 지역에 중형 화기를 탑재한 군용 무인 차량을 투입했다. 또 병사와 로봇 차량으로 이뤄지는 혼성 전투부대도 편성한 바 있다. 업계에선 심각한 병력 수급 문제를 겪고 있는 현 상황에서 군사용 AI의 도입은 효율적인 자원관리와 전투력 강화를 위한 필연적인 선택지라고 봤다. 하지만 각 규제 당국은 AI를 활용한 킬러 로봇의 위험성을 인지하고 통제하려는 움직임을 점차 드러내고 있다. 이번 비엔나 회담에서 알렉산더 샬렌베르크 오스트리아 외무장관은 지난 1945년 원자폭탄 발명을 도운 뒤 핵무기 확산 통제를 주장한 J. 로버트 오펜하이머를 언급하며 "지금이 우리 시대의 오펜하이머 순간"이라고 말했다. 알파벳 AI 플랫폼 '딥마인드'의 초기 투자자인 얀 탈린도 기업들이 AI 사업을 키우기 위해 재정적 지원에 나서는 것과 함께 글로벌 갈등이 확산되면서 '킬러 로봇'을 통제해야 할 필요가 더 커졌다고 경고했다. 앞서 얀 탈린은 "AI는 약간만 발전해도 큰 돈과 연결된다는 특성이 있다"며 "AI 산업의 리더가 경고에 주의를 기울이지 않으면 인류에게 진정한 위험이 될 수 있다"고 주장한 바 있다. 현재 전 세계 정부는 AI 도구를 국방에 통합하는 기업과 협력하기 위한 움직임에 적극 나서는 모습이다. 미국 국방부는 AI 스타트업에 수 백만 달러를 쏟아 붓고 있고, 유럽연합(EU)는 지난주 탈레스 SA에 전장 표적을 평가하는 데 도움이 되는 이미지 데이터베이스를 구축하기 위한 비용을 지불했다. 중국도 적극적인 모습이다. '군민융합전략요강'을 통해 최근 광범위한 빅데이터 분석과 학습능력을 갖춘 첨단 군의 육성계획을 발표해 눈길을 끌었다. AI를 통해 자율무기체계 개발뿐 아니라 미래의 지능전 양상에 선제적으로 대비함으로써 군대조직과 전술·작전 개념까지 혁신한다는 내용이다. 이미 무인 로봇 분야에서 세계 최고 기술을 보유한 일본은 AI 기반 자율화 무기체계에도 상당한 지식을 축적하고 있는 것으로 평가 받고 있다. 특히 지난 2019~2023년 일본 중기방위력정비계획 기간에는 함선용 무인기를 도입해 주목 받았다. 러시아는 당면한 병력 및 고가장비의 부족 문제를 가성비가 뛰어난 자율무기체계로 극복하기 위해 나서고 있다. 최근 투입한 자폭형 드론이나 무인전투기, 무인잠수정, AI 자율 어뢰가 대표적이다. 우리나라는 다른 나라에 비해 아직 움직임이 다소 더디다. 지난 2020년 국방스마트플랫폼 및 무인화·지능화 기술의 국가별 수준 조사에 따르면, 미국 국방 기술 발전 수준을 100으로 볼 때 유럽은 90, 일본은 85, 중국 84, 한국은 75 수준인 것으로 평가됐다. 얀 탈린은 "자율 무기를 쉽게 구할 수 있게 되면서 소수만이 군비 경쟁에 참여할 수 있었던 제한이 사라졌다"며 "이제 3D 프린터와 기본적인 프로그래밍 지식을 갖춘 학생들도 대규모 사상자를 발생시킬 수 있는 드론을 만들 수 있게 됐다"고 말했다. 이어 "자율 무기 시스템은 국제 안정의 개념을 완전히 바꿔놓았다"고 덧붙였다. 제프리 힌턴 명예교수는 지난 3월 일본 니혼게이자이신문과의 인터뷰에서 "AI가 자신이 부여받은 하나의 목표를 달성하기 위해 인간에게 좋지 않은 방법을 해결책으로 내놓을 수 있다"며 "AI가 인류 파멸을 가져올 수 있다"고 경고한 바 있다. 또 그는 "제1차 세계대전에서의 참화로 화학무기가 전 세계적으로 금지됐듯 AI 로봇무기도 조만간 규제할 수 있을 것"이라면서도 "하지만 (규제 시점이) 인류가 (AI 킬러로봇의) 비참함을 인식한 후가 될지 모른다"고 규제에 속도를 내야 한다고 강조했다.

2024.04.30 09:17장유미

"AI, 자가 복제 엄격 제한…살상무기화 금지"

영국과 미국, 캐나다, 중국 등지 인공지능(AI) 전문가들이 베이징에서 'AI 보안 국제 컨센서스'에 합의했다여 중국 언론 텅쉰커지 'AI 웨이라이즈베이'가 18일 보도했다. 이번 국제 합의는 중국 BAAI(Beijing Academy of Artificial Intelligence)가 제안했다. '인공지능 자율 복제 및 진화'에 초점을 맞춘 이번 합의는 인간의 명시적인 승인과 지원없이 인공지능 시스템이 스스로 복제하거나 개선해서는 안된다는 것이 골자다. 인공지능이 자신의 정확한 복사본을 만들고 유사하거나 더 강한 능력을 가진 새로운 시스템을 만드는 것 등이 포함된다. 또 인공지능 시스템이 자신의 힘과 영향력을 부적절하게 증가시키는 조치를 취할 수 없도록 했다. 이뿐 아니라 모든 인공지능 시스템이 사용자의 능력을 향상시켜 대량 살상 무기를 설계하거나 생화학 무기 협약을 위반해서도 안된다고 합의했다. 심각한 금전적 손실이나 그에 상응하는 피해를 초래하는 사이버 공격 분야를 지원해서는 안된다는 합의도 있었다. 여기에 모든 인공지능 시스템이 설계자나 규제 기관이 앞서 언급한 한계선을 넘을 가능성을 계속 오해하도록 유도해서도 안된다고 합의했다. 이날 합의에는 튜링상 수상자인 제프리힌튼 캐나다 토론토대학 교수와 요슈아 벤지오 캐나다 몬트리올대학교 교수, 스튜어트 러셀 영국 컴퓨터 과학자 겸 캘리포니아대학 교수, 로버트 트레이거 옥스퍼드 대학 인공지능 거버넌스에 관한 마틴 이니셔티브 공동 책임자, 토비오드 옥스퍼드대학 선임연구원, 튜링상 수상자인 야오치즈 중국 컴퓨터 과학자, 던송 중국계 미국인 컴퓨터 과학자, 제이드 렁 영국 AI 보안연구소 CTO, 장야친 중국 칭화대 지능형 산업 연구소장, 쉐란 칭화대 슈바르츠만칼리지 학장 등이 참석했다.

2024.03.19 08:27유효정

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 새 정부 출범 D-3…트럼프 철강 관세 50% 이번주 발효

美 관세 최대 타격 '자동차'…"중고차로 상쇄해야"

'주 4.5일 근무' 이상-현실 사이...HR 전문가 생각은?

"계정 공유 시대 끝"…OTT '공유 제한' 전면 확대

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현