[피지컬AI 윤리] 재난·치안 로봇과 칸트의 정언 명령
1. 원숭이의 손, 프로메테우스의 불: 피지컬 AI 역설의 계보학 제이컵스(W. W. Jacobs)의 단편 '원숭이의 손(The Monkey's Paw)(1902)'에서 화이트 가족은 세 가지 소원을 들어준다는 부적을 손에 넣는다. 그들이 처음으로 빈 소원은 주택 담보대출금을 갚기 위해 필요한 200파운드였다. 이 소원은 아들 허버트가 공장 사고로 사망한 뒤 회사가 책임은 부인하면서도 유족에게 200파운드를 지급하는 방식으로 실현된다(Jacobs, 1902). 이 이야기의 서늘한 공포는 부적 자체에 깃든 악의에서 비롯되는 것이 아니다. 오히려 소망을 실현하는 메커니즘이 인간 삶의 복잡한 맥락과 의도를 완전히 소거한 채, 오직 기계적인 결과만을 냉혹하게 산출한다는 데 있다. 환언하면, 우리가 욕망했던 목적과 그것을 맹목적으로 관철하는 수단 사이의 섬뜩한 비대칭성이야말로 진정한 공포의 근원이다. 소원은 분명 이루어지지만, 그 소원이 존재해야 할 세계 자체는 돌이킬 수 없이 파괴되어 버리는 것이다. 이와 같은 경고의 계보는 제이컵스의 단편보다 훨씬 더 깊은 기원을 갖는다. 그리스 신화 속 프로메테우스는 선한 의도로 인간에게 불을 내어주었다. 현대적 시각에서 복기해 보자면, 인류는 그 불을 통제하여 찬란한 문명을 세웠으나 동시에 서로의 도시를 잿더미로 만들기도 했다. 이는 인간의 근원적 취약성을 극복하고자 하는 기술적 욕망이 역설적으로 더 깊고 치명적인 취약성을 잉태한다는 진실을 적나라하게 보여준다. 오늘날 물리적 현실에 투입되는 재난 대응 로봇 역시 이와 같은 양면성을 지닌다. 폭발물 처리나 유해 물질 탐지, 수색 및 구조와 같은 고위험 임무에서 로봇은 인간의 생명을 보호한다는 명백하고도 숭고한 도덕적 선(善)을 실현한다. 그러나 문제는 기술의 전용에 있다. 인간을 구하던 바로 그 기계가 동일한 카메라, 동일한 센서, 동일한 알고리즘을 장착한 채 치안이라는 명분 아래 공공 광장을 배회하고 시민의 얼굴을 인식하며 군중의 행동 패턴을 감시하기 시작한다. 특히 신체를 가진 피지컬 AI는 정보 처리의 오류를 넘어 그 오판을 즉각적이고 물리적인 결과로 전환할 수 있는 파괴력을 지닌다. 더 높은 수준의 안전을 위해 도입된 기계가 어느새 시민의 자유를 위협하는 일상적 감시 인프라로 돌변하는 순간이다. 그렇기에 우리는 의문을 제기하지 않을 수 없다. 이것은 과연 인류를 구원할 새로운 불일까, 아니면 파국을 부르는 현대판 원숭이의 손일까? 2. 탑이 걷기 시작했다: 이동하는 판옵티콘과 피지컬 AI 인프라 미셸 푸코(Michel Foucault)는 '감시와 처벌(Surveiller et punir)(1975)'에서 근대 사회의 규율 권력과 감시가 작동하는 대표적 모델로 제러미 벤담(Jeremy Bentham)의 '판옵티콘'을 지목한 바 있다. 이는 중앙의 감시탑에서 단 한 명의 감시자가 모든 수감자를 볼 수 있지만, 수감자는 자신이 실제로 관찰되고 있는지 알 수 없도록 설계된 원형 감옥이다(UCL Faculty of Laws, n.d.). 판옵티콘의 핵심은 감시 그 자체가 아니라 감시의 가능성이다. 언제 지켜볼지 모른다는 인식이 행동을 자기 스스로 규율하게 만들며 그것이 바로 권력이 몸 없이도 작동하는 방식이다. 그러나 고전적 판옵티콘은 물리적 한계가 있는데 그것은 탑은 움직이지 않는다는 점이다. 과거의 감시는 견고한 건축물의 물리적 경계 안에 갇혀 있었다. 반면, 오늘날 신체를 획득한 피지컬 AI의 도래는 이러한 공간적 구속을 완전히 허물어 버렸다. 공간의 제약에서 풀려난 억압의 탑이 이제는 스스로 걷기 시작하며 세상 전체를 거대한 감옥으로 만들고 있는 것이다. 2026년 현재 두바이, 미국, 중국 등 여러 나라는 인간형 순찰 로봇, 사족보행 로봇견, 폭발물 처리 로봇, 감시 드론을 일선 치안 업무에 배치하고 있다. 이를 통해 AI가 탐색, 이상 행동 탐지, 신원 확인 기능을 수행한다. 두바이 경찰은 2030년까지 로봇이 전체 경찰력의 약 25%를 차지하도록 하겠다는 구상을 제시하였다(Al Shouk, 2018). 중국 일부 도시에서는 이미 로봇 치안 보조 시스템이 시범 도입되고 있다. 예컨대 청두에서는 2025년 6월 사족보행 로봇, 바퀴형 로봇, 휴머노이드 로봇을 포함한 로봇 경찰관 팀이 배치되었고, 우후에서는 '지능형 경찰 유닛 R001'이 교차로 교통 보조 임무를 수행하고 있다(Almirall, 2026). 미국에서도 한때 단지 신기한 기술로 여겨졌던 지상 로봇과 공중 드론이 빠르게 주류 치안 도구가 되어 가고 있다. 각종 카메라와 센서를 장착한 자율 경찰 로봇은 공원, 학교, 기차역 등에 투입되어 왔다. 보스턴 다이내믹스의 스팟(Spot) 로봇과 같이 개를 닮은 4족 보행 로봇이 뉴욕 경찰국(NYPD)과 로스앤젤레스 경찰국(LAPD)을 포함한 미국 내 최대 규모의 경찰 기관들에 도입되었다. 경찰은 또한 바리케이드를 친 용의자와 소통하거나 무장 해제시키거나 심지어 무력을 행사하기 위해 로봇을 사용해 왔다(Friedman, et al., 2025). 미국 전역의 여러 기관은 911 신고에 대응하여 드론을 자동으로 출동시키는 '최초 대응 수단으로서의 드론(Drone as First Responder, DFR)' 프로그램을 시범 운영하고 있다. 무인항공기 시스템인 드론은 공공안전 작전에서 실시간 상황 인식을 제공하는 핵심 도구가 되었다. DFR 시스템은 발사 거점에 미리 배치된 드론을 포함하며 이를 통해 사건 현장으로 드론을 신속히 원격으로 출동시킬 수 있다. 발사 거점은 드론이 몇 분 안에 현장에 도착할 수 있도록 전략적으로 배치되며 종종 긴급 대응 인력보다 먼저 도착하기도 한다. 드론은 핵심 정보를 긴급 대응팀에 실시간으로 전송하여, 더 빠르고 더 많은 정보에 근거한 의사결정을 가능하게 한다(DHS S&T, n.d). 경찰 로봇의 일부 활용은 공공 안전상의 이익을 제공할 수 있지만 동시에 현실적인 위험도 수반한다. 카메라, 센서, 분석 기능을 장착한 고기동성 로봇이 광범위하게 채택되면 경찰 감시의 확산은 더욱 가속화될 것이며 그에 따라 개인의 프라이버시에 대한 위험도 뒤따르게 된다. 재난 영역의 경우 양상은 다르지만 이 또한 구조적 문제가 동일하다. 재난 로봇의 핵심 윤리 쟁점 역시 공정성과 차별, 허위, 노동 대체, 프라이버시, 책임, 안전, 신뢰 등이다. 이 목록 자체가 기술이 결코 가치 중립적이지 않음을 증언한다. 안전 및 재난 로봇에 탑재된 카메라, 열화상 센서, 생체 인식 시스템은 피해자 탐지에 필수적이지만 동시에 공공 및 사적 공간에서 당사자의 동의 없이 개인을 연속적으로 모니터링하는 전례 없는 감시 능력을 구현한다. 더구나 알고리즘 편향과 치안 기술이 배치되는 지역의 격차는 인종적 불평등을 심화시킬 수 있다. 특히 물리력 행사 기능을 갖춘 로봇의 출현은 물리력 사용 규범 전반에 대한 체계적인 재고를 요구하는 심대한 윤리적 질문을 제기한다. 재난이나 경찰 로봇이 초래하는 해악에 직면해 볼 때, 치안과 안전을 규율하는 기존의 법률과 헌법 규범의 파편적 집합만으로는 충분하지 않다. 전 세계에 이러한 새로운 도구가 도입되는 상황에서 건전한 정책 형성이 시급히 요구된다. 목적의 전환은 하드웨어의 교체 없이도 가능하다는 점에서 재난 로봇이 잠재적 감시 인프라로 이중 전용될 수 있는 구조적 근거가 여기에 있다. 이것이 원숭이의 손이 갖는 가장 어두운 응용 가능성이다. 3. 몰아세움(Gestell)과 악의 평범성: 감시의 일상화가 작동하는 구조 마르틴 하이데거(Martin Heidegger)는 '기술에 대한 물음(Die Frage nach der Technik)(1954)'에서 근대 기술의 본질을 '몰아세움(Gestell)'으로 규정했다. 몰아세움이란 세계를 측정 가능하고 통제 가능한 자원이나 부품의 집적으로 드러나게 하는 은폐의 방식이다. 기술적 시선 아래 강은 수력 발전 가능성이 되고 숲은 목재 저장소가 된다. 그리고 인간은 잠재적 위협 또는 관리 대상이 된다. 같은 시각에서 바라보면, 감시 로봇의 렌즈를 통해 비친 시민은 더 이상 자유의지를 가진 권리의 주체가 아니라 알고리즘이 예측하고 분류해야 할 데이터 포인트로 환원된다. 이 메커니즘이 '명분의 선점'이라 불릴 만한 현상을 초래한다. 재난·치안 로봇은 언제나 가장 반박하기 어려운 정당화로 처음 도입된다. 지진 현장의 수색 드론, 인질극의 폭발물 처리 로봇, 테러 위협 구역의 순찰 로봇 등 초기의 배치는 인명 보호라는 도덕적 선과 연결되어 있어 반론이 어렵다. 그러나 인프라가 일단 구축되면 적용 범위는 일종의 미끄러운 경사길이 되어 확장된다. 재난 드론은 평시의 집회 현장 위를 날기 시작하고 순찰 로봇은 저소득층 밀집 지역에 우선 배치되며 수색 알고리즘은 위험 인물 예측 모델로 전환된다. 실례로 뉴욕 경찰청(NYPD)은 디스토피아적 넷플릭스 시리즈 블랙 미러의 한 에피소드에 영감을 제공한 것으로 알려진 로봇견과 유사한 기종의 운용을 반발 여론을 수용하여 중단한 바 있다. NYPD는 해당 로봇견이 인명 피해 방지에 기여할 것으로 기대하였다. 그러나 하원의원 알렉산드리아 오카시오-코르테스(Alexandria Ocasio-Cortez)를 비롯한 비판론자들은 이를 경찰력의 과도한 군사화를 입증하는 사례로 규정하였다. 당시 NYPD는 2021년 4월 22일, '디지독(Digidog)'으로 불리던 보스턴 다이내믹스의 원격 조종 4족보행 로봇 운용 계약을 종료했다. NYPD는 맨해튼 소재 공공주택 단지에서 피의자 체포 과정에 디지독을 시험 투입한 데 이어 브롱크스에서 발생한 인질 상황에도 이를 활용함으로써 광범위한 공분을 자아낸 바 있다(ABC News, 2021). 당시의 비판은 로봇 경찰견과 같은 반자율 시스템의 도입이 감시 권한을 확대하고 특히 저소득층·유색 인종 지역을 실험장으로 삼음으로써 시민적 자유와 평등한 치안 원칙을 구조적으로 훼손할 수 있다는 우려와 맞물린다. 이 지점에서 우리는 한나 아렌트(Hannah Arendt)가 '예루살렘의 아이히만(1963)'에서 통찰한 '악의 평범성'의 개념을 다시금 소환해야만 한다. 아렌트가 갈파했듯, 전대미문의 비극을 초래한 아이히만은 악마적인 괴물이 아니라 단지 관료제 시스템의 명령을 무비판적으로 수행한 성실한 톱니바퀴에 불과했다. 놀랍게도 오늘날 피지컬 AI를 기반으로 한 재난·치안 로봇의 감시망 확장 현상은 이와 완벽한 구조적 동형성을 지닌다. 시민의 삶을 옥죄는 것은 특정 권력자나 설계자의 거대한 악의가 아니라 기술 시스템 자체에 내재된 차가운 합리성이다. 더 방대한 데이터를 수집할수록 범죄와 재난에 대한 예측의 해상도가 높아지며 이는 곧 사회 전체의 안전망을 굳건히 한다는 지극히 공리주의적이고 완벽한 선의에 기반한 알고리즘의 내적 논리가 역설적으로 시민의 내밀한 프라이버시를 잠식해 들어가는 것이다. 결과적으로 아무도 명시적인 악(惡)을 의도하지 않았고, 기술은 그저 안전의 극대화라는 본연의 임무에 충실했을 뿐이지만, 구조 전체는 돌이킬 수 없는 디스토피아적 감시 사회를 향해 나아가게 된다. 아이히만의 '사유의 불능'이 비극을 낳았듯이 도구적 합리성에 매몰된 시스템의 맹목적인 최적화가 우리 시대의 새로운 '감시의 평범성'을 잉태하고 있는 셈이다. 원숭이의 손이 빚어낸 파국이 반드시 폭력의 형태를 띠는 것은 아니다. 그것은 때로 거리를 걷는 로봇의 부드러운 발소리로 광장 위를 조용히 나는 드론의 날갯짓으로 온다. 4. 원칙의 문제: 드워킨, 책임의 공백과 칸트의 제2 정식 로널드 드워킨(Ronald Dworkin)은 '원칙의 문제(A Matter of Principle)(1985)'에서 자유주의적 법이론의 핵심 명제를 정교하게 전개한다. 그는 정책과 원칙을 구분하면서 전자는 공동체의 집합적 목표를 증진하기 위한 결정인 반면, 후자는 개인의 권리에 근거한 규범적 요청이라고 본다(Dworkin, 1985, 박형빈 역, 2026 출간 예정). 정책적 목표의 달성이 원칙 즉, 개인의 권리를 침해하는 것을 정당화하지 않는다는 것이 드워킨의 핵심적 논지다. 그러므로 '치안 효율성 33% 향상'이라는 정책 목표가 시민의 프라이버시와 익명성에 대한 권리라는 원칙을 완전하게 압도할 수 없다. 이 구별은 재난·치안 로봇 담론에서 결정적인 규범적 준거가 되어야 한다. '더 안전한 도시'는 분명 우리 모두에게 필요한 정책이다. 반면 개인정보에 대한 통제권은, 특별한 정당화가 없는 한 침해되어서는 안 되는 원칙의 영역에 속한다. 드워킨적 틀에서 전자가 후자를 희생시키는 것은 설령 그것이 다수에게 이익이 된다고 할지라도 정당화되지 않는다. 안전 담론이 원칙의 문제를 정책의 언어로 해소하려 할 때, 그것은 논리적 범주 오류이자 규범적 기만이 된다. 물론, 생명과 신체의 안전은 어떤 것과도 바꿀 수 없는 중대한 인간의 기본권이다. 따라서 이를 수호하기 위해 재난·치안 로봇을 투입하는 것은 일견 정당한 권리의 보장 수단처럼 보인다. 그럼에도 불구하고, 피지컬 AI의 도입이 드워킨의 권리론적 틀에서 유독 치명적인 규범적 긴장을 유발하는 까닭은 '행위성'과 '책임'의 구조적 분리 때문이다. 전통적인 인간의 실천 영역에서 어떤 행위를 수행한 주체와 그 결과에 책임을 지는 주체는 일치한다. 그러나 고도의 자율성을 획득한 피지컬 AI의 경우, 현실 세계에서 감시하고 개입하는 '행위'는 기계가 수행하지만 그 결과에 대한 '책임'은 여전히 인간에게 귀속되어야 한다는 법적·윤리적 교리가 유지된다. 문제는 이러한 존재론적 간극이 필연적으로 거대한 '책임의 공백'을 잉태한다는 데 있다. 알고리즘 설계자, 데이터 학습을 주도한 기업, 시스템 운영 조직, 현장의 경찰 그리고 정책 입안자까지 수많은 주체들이 책임을 잘게 쪼개어 나누어 가지는 복잡한 네트워크 속에서, 온전한 책임의 소재는 교묘하게 증발해 버릴 수 있다. 결과적으로 프라이버시를 침해당한 시민의 눈앞에는 항변하거나 책임을 물을 구체적인 인간은 사라지고 오직 무오류성을 가장한 차갑고 압도적인 '시스템의 결과'만이 폭력적으로 남겨지게 된다. 문제는 이 공백은 철학적 추상이 아니라 이미 실재하는 법적 위기라는 점에 있다. 전장의 자율무기시스템(LAWS)이 국제인도법의 근간인 구별 및 비례성 원칙 그리고 지휘 책임을 무력화할 위험이 있듯이 일상 속 치안 로봇의 오인 식별이 무고한 시민에 대한 물리적 폭력으로 이어지는 순간 드워킨적 관점에서의 중대한 권리 침해는 이미 실현된 것이다. 그러나 가장 뼈아픈 규범적 위기는 이 명백한 침해 앞에서도 '그 폭력의 책임을 대체 누구에게 귀속시킬 것인가'라는 본질적 질문에 현행 법체계가 철저히 침묵하고 있다는 사실이다. 임마누엘 칸트(Immanuel Kant)의 정언명령이 이 때문에 날카롭게 개입할 수밖에 없다. 칸트의 제2정식인 '너의 인격에서나 다른 모든 사람의 인격에서 인간성을 항상 동시에 목적으로 대우하고, 결코 단순한 수단으로만 대우하지 말라'는 알고리즘의 예측 대상으로 환원된 시민에 대한 명확한 도덕적 판결을 내린다. 데이터 포인트로 분류된 군중, 위험 점수로 평가된 개인은 칸트적 의미에서 인간 존엄의 침해다. 5. 세 번째 소원을 남겨두라: 하드웨어 윤리 그리고 디지털 시민성 발터 벤야민(Walter Benjamin)은 '역사의 개념에 대하여(Über den Begriff der Geschichte)」(1940/2009)'의 제9테제에서 파울 클레(Paul Klee)의 그림 '앙겔루스 노부스(Angelus Novus)'를 '역사의 천사'로 해석한다. 그의 눈은 응시하고 입은 벌어져 있으며 날개는 펼쳐져 있다. 그의 얼굴은 과거를 향하지만 우리가 사건의 연쇄를 읽는 자리에서 그는 잔해를 쉼 없이 발 앞에 쌓아 올리는 단 하나의 파국을 본다. 그는 머물러 죽은 자를 깨우고 부서진 것을 다시 잇고자 하나 낙원으로부터 불어오는 폭풍이 그의 날개를 휘감아 더 이상 접지 못하게 한다. 그 폭풍은 그의 등을 미래로 떠밀고, 앞의 폐허는 하늘 높이 쌓여 간다. 우리가 진보라 부르는 것은 바로 이 폭풍이다(Benjamin, 1940/2009). 피지컬 AI 확산은 이 이미지와 포개진다. 우리는 기술의 폭풍에 등을 떠밀리며 앞으로 나아가지만 뒤에는 프라이버시의 잔해가 그리고 자유의 파편이 쌓인다. 그러나 벤야민의 천사와 달리 우리에게는 선택의 가능성이 있다. 멈출 수 있고, 설계할 수 있고, 제도화할 수 있다. 이제 '원숭이의 손' 이야기로 되돌아가자. 화이트 부인은 두 번째 소원으로 죽은 아들을 살려달라고 빈다. 이윽고 한밤중에 현관문을 두드리는 소리가 들리고 아들이 돌아왔다고 확신한 화이트 부인은 문을 열려 한다. 그러나 화이트 씨는 문밖의 존재가 자신이 기억하는 아들의 모습 그대로일 수 없다고 직감했다. 소원은 이루어졌지만, 그 방식은 차마 마주할 수 없는 것이었다. 화이트 씨는 남아 있던 세 번째 소원으로 문밖의 존재를 사라지게 한다. 이 이야기의 교훈은 그저 '소원을 빌지 말라'가 아니다. 소원이 이루어지는 방식을 통제할 수 없다면, 때로는 소원을 거두는 것이 더 깊은 지혜라는 것이다. 그리고 그 거둠이 가능했던 것은 오직 세 번째 소원이 남아 있었기 때문이다. 재난·치안 로봇의 배치에는 그 세 번째 소원이 항상 남아 있지 않다. 한 번 구축된 감시 인프라는 대개 강한 관성을 갖고, 정상적인 치안 수단으로 자리 잡은 로봇 시스템을 다시 철수하거나 축소하는 데에는 상당한 정치적·행정적 비용이 따를 것이다. 소원이 이루어진 뒤에야 그것이 실제 원했던 바가 아님을 깨닫고 나서야 그 방식을 후회하는 것은 바로 화이트 부부가 치른 대가였고 우리가 반복해서는 안 될 실수다. 피지컬 AI 윤리의 성패는 로봇이 얼마나 똑똑한가에만 달려 있다고 보기 어렵다. 사회가 그 로봇에게 '어디까지 권한을 위임'하고 '어떤 한계를 분명히 설정'하는가에 달려 있다. 바람직한 재난·치안 로봇은 더 많이 보고 더 빨리 식별하는 기계에 머물지 않고 인간의 생명 보호와 자유 보장을 함께 충족하도록 설계·운용·감독되는 '제도적 기술'이어야 한다.