[피지컬AI와 윤리④] 공장 속 휴머노이드, 노동해방인가 통제인가
1. 피지컬 AI 시대, 노동은 해방되는가- 공장 구조 전환과 소외 재등장 공장은 오랫동안 한 사회의 생산 역량, 기술 축적, 숙련 전수, 그리고 산업적 도약을 가능하게 한 핵심 공간이었다. 동시에 산업화의 역사에서 공장은 분진, 소음, 중량물 취급, 위험 기계와의 근접 작업처럼 노동자의 안전과 건강을 위협하는 조건을 함께 안고 있었다. 소위 3D라는 용어가 그 열악한 환경을 상징했으며, 산업안전과 노동보호의 관점에서 공장은 지속적인 개선의 대상이기도 했다. 그런데 2026년의 공장은 어떠한가? 오늘의 공장은 이 역사 위에서 또 다른 전환점에 서 있다. 국제로봇연맹(IFR)이 발간한 'World Robotics 2025–Industrial Robots'에 따르면, 2024년 전 세계 공장에 새로 설치된 산업용 로봇은 약 54만 2천 대로 10년 전의 두 배 수준이며, 가동 중인 산업용 로봇 재고는 약 466만 대에 달한다. 같은 해 IFR이 발표한 'World Robotics 2025–Service Robots'에 따르면, 2024년 전문 서비스 로봇은 등록 기준 약 19만 9천 대로 전년 대비 9% 증가했다. 이 가운데 운송·물류용이 약 10만 2900대로 가장 많았고, 호스피털리티용과 청소용이 그 뒤를 이었다. 다만 이 수치는 IFR에 등록된 표본에 기반한 것으로, 전체 산업 규모로 추정한 총량은 아니다(IFR, 2025a; IFR, 2025b). 이러한 수치는 자동화 확산을 넘어, 공장 공간의 성격 자체가 바뀌고 있음을 보여준다. 과거의 자동화가 반복 작업의 기계 대체에 머물렀다면, 오늘의 공장은 센서·데이터·인공지능이 결합된 지능형 생산 환경으로 이동하고 있으며, 협동 로봇, 자율이동로봇, 머신비전 시스템 등 다양한 디지털·로봇 기술이 이러한 변화의 주요한 동인으로 작용하고 있다. 그 결과 중량물 운반이나 유해 환경 노출 같은 작업은 점차 기계가 맡고, 작업자에게는 시스템 감시·조율과 예외 상황 판단이 요구된다. 이러한 변화는 3D로 표상되던 공장의 이미지가 일정 부분 완화될 가능성을 보여주는 한편, 근로자에게 요구되는 역량의 중심이 전통적 수작업 숙련에서 디지털 기반의 감시·조율 능력으로 이동하고 있음을 시사한다. 다만 중요한 점은, 현재 공장 자동화의 중심은 여전히 전통적인 산업용 로봇과 협동 로봇에 있으며, 휴머노이드는 일부 현장에서 시험적 또는 제한적 배치가 이루어지는 단계라는 점이다. 그럼에도 최근 변화가 주목받는 이유는, 휴머노이드가 연구실 시연을 넘어 실제 생산·물류 현장에 시험·제한 배치 형태로 진입하기 시작했기 때문이다. Figure AI 발표에 따르면, Figure 02는 미국 사우스캐롤라이나주 BMW 공장에서 약 10개월간 시험 운용되었으며, 월요일부터 금요일까지 하루 10시간씩 가동되면서 9만 개 이상의 부품을 이동·위치시키고, 3만 대 이상의 BMW X3 생산을 지원했으며, 총 약 1250시간 운용되었다(Figure AI, 2025). 이러한 사례는 휴머노이드가 아직 공장 표준 설비로 정착한 단계는 아니지만, 실제 생산 라인에서 반복적이고 정밀한 작업을 시험적으로 수행하는 단계에는 이미 진입했음을 보여준다(Humanoid Robotics Technology, 2025). 이 지점에서 공장 속 휴머노이드를 둘러싼 두 개의 상반된 서사가 등장한다. 하나는 인간을 위험하고 반복적인 노동에서 해방하는 기술이라는 서사다. 다른 하나는 노동을 더 정밀하게 분해하고 측정하며 통제하는 새로운 관리 장치라는 서사다. 중요한 것은 어느 쪽 서사가 더 인상적인 것인가가 아니다. 더 중요한 질문은, 어떤 제도적·기술적 조건에서 휴머노이드가 노동 해방의 도구가 되고, 어떤 조건에서 오히려 통제의 정교화를 낳는 가다. 2. 아리스토텔레스의 꿈: 노동의 해방인가 아리스토텔레스는 '정치학(Politics)'에서, 만약 베틀의 북이나 리라의 채와 같은 도구들이 타인의 의지를 따르거나 미리 예견해 스스로 자신의 기능을 수행할 수 있다면 장인에게 조수나 하인이 필요 없고, 주인에게도 노예가 필요 없을 것이라고 논한다(Aristotle, 1885). 이는 도구가 인간 노동을 대체할 수 있는 가능성을 가정한 사유로 볼 수 있으며, 오늘날 등장하고 있는 피지컬 AI 기반 휴머노이드는 이러한 고대의 가설이 현대 기술 속에서 부분적으로 구현되기 시작한 사례로 해석될 수 있다. 골드만 삭스는 2024년 휴머노이드 로봇 시장의 총주소가능시장(TAM)이 2035년까지 약 380억 달러에 이를 수 있다고 전망하면서, 부품·재료 비용 하락이 상업화 시점을 앞당길 수 있다고 보았다(Goldman Sachs, 2024). 다만 이 평가는 시장 전망 자료이므로, 공장 현장에서의 실제 노동 효과를 입증하는 증거라기보다는 산업계의 기대를 보여주는 자료로 이해할 필요가 있다. 이는 인간을 위험하고 반복적인 물리적 작업에서 분리함으로써, 흔히 논의되는 신체적 무결성에 대한 권리와 산업 안전의 확대라는 규범적 요구를 일정 부분 뒷받침한다. 휴머노이드가 인체공학적으로 부담이 큰 판금 삽입 등 물리적으로 고된 공정을 맡아 작업자의 인체 부담과 안전 위험을 줄이는 방향으로 시험되고 있는 사례는, 육체적 고통과 손상으로부터의 부분적 해방이라는 서사를 보여준다. EU-OSHA를 비롯한 국제기구와 연구기관의 분석에 따르면, 고급 로봇과 AI 기반 시스템은 노동자를 폭발·고열·유해물질 노출 등 고위험 작업환경에서 물리적으로 분리하거나, 반복적·고강도의 단순 작업을 자동화함으로써 근골격계 부담을 줄이고 직업적 안전과 건강을 개선할 잠재력이 큰 것으로 평가된다(European Agency for Safety and Health at Work, 2023). 물론 이러한 전망이 실현된다면, 공장 노동의 조건은 역사상 유례없는 방식으로 개선될 수 있다. 위험 공정에서 인간이 물러나고, 반복적인 중노동이 기계로 이전되며, 작업자는 보다 안전하고 전문적인 역할로 재배치된다는 그림은, 아리스토텔레스가 상상했던 '자율적 도구에 의한 노동 해방'과 구조적으로 닮아있다. 그런데 바로 이 지점에서 의문이 제기된다. 누가 무엇으로부터 해방되는가? 그 해방이 노동자를 주체로 세우는가, 아니면 잉여로 만드는가? 3. '찰리의 아버지'는 어디로 가야 하는가: 주보프와 폴라니의 렌즈로 본 공장의 두 얼굴 로봇이 작업자 곁에 밀착 배치될수록, 그 로봇에 탑재된 센서와 데이터 시스템은 작업자의 움직임과 성과를 전례 없는 정밀도로 포착·기록하는 인프라가 된다. 공장 속 휴머노이드는 움직이는 일종의 파놉티콘으로 기능할 수 있다. 수십 개의 센서와 카메라로 무장한 채 작업자의 손놀림, 휴식 시간, 미세한 망설임까지 상시 기록하는 '이동식 감시 장치'로서, 효율성과 안전을 명분으로 작업장의 권력 구조와 통제 방식을 조용히 재편하는 존재가 될지도 모른다. 쇼샤나 주보프(Shoshana Zuboff)가 '감시 자본주의'라고 명명한 체제는 인간의 경험을 일방적으로 행동 데이터로 전환해 상업적 자원으로 동원하는 새로운 축적 논리를 가리키며, 검색엔진·소셜미디어 등 디지털 플랫폼에서 처음 본격 출현한 것으로 분석된다(Zuboff, 2019). 오늘날 제조현장에서는 카메라 기반 비디오 분석과 중앙 통합 모니터링을 활용해 안전사고를 실시간 탐지하고 관련 데이터를 축적하는 시스템이 확산되고 있다(McKean, 2025). 그런데 여기서 더 근본적인 물음이 제기된다. 영화 '찰리와 초콜릿 공장(Charlie and the Chocolate Factory, 2005)'에서 찰리의 아버지는 치약 튜브에 뚜껑을 씌우는 작업을 하다가 공장 자동화로 일자리를 잃는다. 영화는 그가 이후 같은 공장에서 그 기계를 수리·유지보수하는 기술자로 재고용되는 해피엔딩을 보여주지만, 2026년의 현실은 훨씬 더 복잡하다. 마이클 폴라니(Michael Polanyi)는 '암묵적 차원(The Tacit Dimension)'에서 인간의 숙련된 행위와 인지 활동이 언어나 형식 규칙으로 완전히 환원될 수 없는 '암묵적 지식(tacit knowledge)'에 뿌리를 두고 있음을 논증하며, '우리는 말할 수 있는 것보다 더 많이 알고 있다'는 명제로 이를 인식론적으로 정식화하였다(Polanyi, 1967). 같은 맥락에서 피지컬 AI는 인간 숙련의 핵심으로 간주되어 온 암묵지의 일부를 기술적으로 포착·모사하려는 시도로 해석할 수 있다. 과거의 자동화가 일정한 패턴의 반복 동작을 기계화하는 데 머물렀다면, 피지컬 AI는 전신의 움직임, 힘의 가감, 작업 맥락에 따른 순간적 판단까지 센서 데이터와 동작 캡처를 통해 수집·학습·모사하려 한다. 숙련의 핵심이 몸에 각인된 암묵지에 있다면, 그것이 알고리즘적으로 포착·재현되는 순간, 과거 자동화 이후에도 유지될 수 있었던 기술자의 역할마저 장기적으로 불안정해질 가능성을 배제하기 어렵다. 일반적인 법적·도덕적 책임 논의에서는, 기계 작동의 결과에 대해 제조자나 운용자가 일정한 책임을 진다고 보는 이해가 오랫동안 전제되어 왔다. 그러나 철학자 안드레아스 마티아스(Andreas Matthias)가 2004년 논문에서 체계적으로 제시한 '책임의 간극(responsibility gap)' 개념은, 학습 능력을 갖춘 자율 기계의 경우 그 구체적 행위를 설계자나 운용자가 원칙적으로 완전히 예측하거나 통제하기 어렵기 때문에, 전통적인 방식으로 특정 인간 행위자에게 책임을 귀속시키기 어려운 구조적 공백이 발생함을 지적한다(Matthias, 2004). 즉, 신경망, 유전 알고리즘, 에이전트 아키텍처 등에 기반한 자율적 학습 기계는 미래 행동을 스스로 갱신해 나가므로, 제조자나 운용자가 그 결과에 대해 종전과 같은 방식으로 도덕적 책임이나 법적 책임을 부담한다고 보기 어려운 새로운 상황을 만들어낸다. 특히 피지컬 AI가 공장 환경에서 실시간 학습과 자율적 의사결정을 통해 행동을 지속적으로 수정하는 경우, 이러한 책임의 간극은 기존의 규칙 기반 자동화 시스템보다 훨씬 더 넓고 복잡한 형태로 전개된다. 따라서 사회는 이러한 기계를 배제하는 비현실적 선택 대신, 전통적 책임 귀속 개념만으로는 충분히 설명하거나 메울 수 없는 책임의 공백을 어떻게 새롭게 제도화하고 규범화할 것인지에 대해 본격적으로 검토해야 한다. 4. 책임의 간극과 드워킨 권리의 '으뜸패' 휴머노이드가 자율 학습을 통해 행동을 결정하다 사고를 냈을 때 발생하는 '책임의 간극' 또한 우리가 간과해서는 안 되는 실재적인 위협이다. 기업이 기술적 예측 불가능성을 이유로 책임을 회피할 때, 그 피해는 고스란히 현장 노동자에게 전가된다. 이는 기술의 결과가 비가역적일수록 단기 효율보다 사전적 책임이 우선되어야 함을 시사한다. 로널드 드워킨(Ronald Dworkin)은 '원칙의 문제(A Matter of Principle)'에서 기본권은 단순 정책 목표가 아니라 다수결이나 집합적 효율성에 우선하는 규범적 원칙에 의해 뒷받침된다고 본다(Dworkin, 1985). 이 관점을 노동 영역에 적용해 보면, 노동자의 안전권, 프라이버시, 이의제기권과 같은 기본적 권리는 단지 효율성·생산성이라는 정책 판단에 종속될 수 없는 원칙적 요구로 이해되어야 하며, 그 의미에서 집합적 효율성 논리에 맞서 작동하는 일종의 '으뜸패(trump)'를 구성한다고 해석할 수 있다. 생산성 향상과 안전 개선은 피지컬 AI 도입의 정당한 목표다. 그러나 그 과정에서 노동자의 동의 없이 신체 데이터를 수집하거나, 효율화를 명분으로 인간의 역할을 구조적으로 축소하는 방식은 권리 법치의 이상과 충돌할 수 있다. 기업의 혁신 이익과 노동자의 기본권은 대립 관계가 아니라 제도적 균형의 문제다. 돌봄윤리(Care Ethics)의 시각에서 보면, 휴머노이드는 생산 효율의 도구이기 이전에 작업 공동체의 협력 구조를 재편하는 매개이기도 하다. 따라서 기술 도입의 속도와 범위를 결정할 때, 노동자의 신체·감정·역할이 조직 설계의 고려 대상으로 함께 다루어져야 한다. 결국 공장 속 휴머노이드를 둘러싼 논쟁은 기술의 문제만이 아닌, 제도 설계의 문제로 귀착된다. 노동자의 안전권·프라이버시권·이의제기권이 으뜸패로 기능하려면, 그것을 실질적으로 보장하는 구체적 절차가 법령 수준에서 선제적으로 설계되어 있어야 한다. 센서 데이터 수집 범위의 사전 고지와 동의, 알고리즘 기반 성과 평가에 대한 인간 재검토 절차, 책임 간극이 발생했을 때의 귀책 주체 명확화 등의 장치들이 갖추어지지 않은 상태에서 기술이 먼저 현장에 진입한다면, '해방'의 서사는 언제든 '정밀 통제'와 '노동 소외'의 현실로 반전될 수 있다. 아리스토텔레스가 꿈꾼 자율 도구에 의한 노동 해방이 실현될 것인지, 아니면 감시 자본주의와 일자리 소외의 논리가 공장 바닥까지 침투할 것인지는 결국 기술이 결정하지 않는다. 그 경계를 어디에 그을 것인가를 결정하는 것은, 우리가 지금 어떤 제도와 정책을 설계하느냐에 달려 있다. 그렇다면, 이제 우리는 무엇을 준비해야 하는가? 5. 결론: 공장 속 휴머노이드가 해방의 도구가 되려면-AI 윤리 원칙 제언 공장 속 휴머노이드는 노동을 해방하는가, 아니면 통제하는가. 이제 이 질문에는 세 번째 선택지가 분명히 포함되어야 한다. 그것은 해방도 통제도 아닌 배제다. 문제는 노동 과정의 변화에 그치지 않는다. 일자리 자체가 사라질 수 있다는 점에 있다. 특히 피지컬 AI가 인간 노동의 숙련, 상황판단, 현장 적응과 같은 암묵적 요소까지 점차 구현하기 시작하면, 노동 소외는 더 이상 작업장 내부의 지휘·감독 문제로만 설명되지 않는다. 그것은 노동자가 생산 과정에서 밀려나는 문제, 안정적인 고용관계에서 이탈하는 문제, 더 나아가 사회적 구성원으로서의 지위와 생계 기반이 약화되는 문제로 이어질 수 있다. 이 점에서 아리스토텔레스가 말한 해방의 가능성과 주보프가 경고한 통제의 위험은, 사실상 동일한 기술 조건 위에서 갈라지는 상이한 제도적 귀결이라고 볼 수 있다. 휴머노이드가 어떤 방향으로 사회에 편입될지는 기계의 성능 자체보다 그것을 둘러싼 법제도, 책임 구조, 노동 보호 장치가 얼마나 정교하게 설계되어 있는지에 달려 있다. 기술의 진로는 기술만으로 결정되지 않으며, 선언적 윤리 원칙만으로도 통제되지 않는다. 실질적인 윤리 기준은 구체적 위험을 식별하고, 그 위험에 대응하는 책임과 절차를 사전에 배치하는 증거 기반의 제도 설계다. 예를 들면, 신체 데이터 수집의 목적 제한과 '신경권(Neurorights)' 보호 조항 신설 그리고 인간 개입을 골자로 하는 '인간 사유 보존 설계' 의무화를 생각해 볼 수 있다. EU AI Act 제14조는 고위험 AI 시스템이 효과적인 인간 감독이 가능하도록 설계·개발돼야 한다고 규정한다. 또한 제86조는 일정한 경우, 고위험 AI 시스템의 출력에 근거한 결정으로 불리한 영향을 받았다고 보는 사람이 AI의 역할과 결정의 주요 요소에 관한 명확하고 의미 있는 설명을 요구할 수 있도록 정하고 있다(European Union, 2024). 이러한 조항들은 책임 구조의 단계별 법정화와 사고 즉시 보고 의무를 통해 실효성을 갖춘다. 피지컬 AI 사고 발생 시 제조사·배포사·운영사·플랫폼·현장 관리자 간 귀책 기준을 단계별 의무 주체 분화 모델로 법문에 명확히 규정해야 한다. 자율 학습을 통해 행동을 갱신하는 피지컬 AI의 경우, 책임의 간극은 사고 발생 이후가 아니라 '설계' 단계에서부터 메워져야 한다. 일본은 2024년 국가 AI 안전 보고서를 통해 안전성 평가, 기준 검토, 위험관리 프레임워크 연계, 레드팀 방법론 개발 등 AI 안전 거버넌스 체계를 단계적으로 정비하고 있음을 밝혔다(Japan AI Safety Institute, 2024). 심각한 사고의 즉시 보고 의무, 사후 원인 분석의 독립 기관 수행, 피해 노동자에 대한 신속 구제 절차가 법령에 함께 규정되어야 한다. 노동의 해방은 기술의 속도가 결정하지 않는다. 드워킨의 언어로 말하면, 노동자의 안전권·인지적 자율성·이의제기권은 생산성이라는 정책 논거에 양보할 수 없는 으뜸패다. 그 으뜸패가 공장 바닥에서 실제로 작동하려면, 윤리 선언이 아닌 간 학문적 근거 위에 설계된 제도가 있어야 한다. 피지컬 AI가 작업자에게 손을 내밀 때, 그 손이 통제의 밧줄인지, 협력의 도구인지, 아니면 배제의 손짓인지는 기술이 결정하지 않는다. 그 경계를 어디에 그을 것인가는, 우리가 지금 어떤 제도를 설계하느냐에 달려 있다. ◆ 필자 박형빈 서울교대 교수는.... ▲약력 · 서울교육대학교 윤리교육과 교수 · 미국 UCLA 교육학과(Department of Education) 방문학자 · 서울교육대학교 교육전문대학원 에듀테크전공·어린이철학교육전공 교수 · 서울교육대학교 신경윤리·가치AI융합교육연구소 소장 ▲주요 경력 및 사회공헌 · 현 신경윤리융합교육연구센터 센터장 · 현 가치윤리AI허브센터 센터장 · 현 경기도교육청 학교폭력예방자문위원 · 현 통일부 정책자문위원 · 현 민주평화통일자문회의 자문위원 ▲주요 수상 · 세종도서 학술부문 우수도서 3회 선정 ― 『어린이 도덕교육의 새로운 관점』(2019, 공역), 『뇌 신경과학과 도덕교육』(2020), 『양심: 도덕적 직관의 기원』(2024, 역서) ▲주요 저서 · 『도덕적 AI와 인간 정서』(2025) · 『BCI와 AI 윤리』(2025) · 『질문으로 답을 찾는 인공지능 윤리 수업』(2025) · 『AI 윤리와 뇌신경과학 그리고 교육』(2024) · 『양심: 도덕적 직관의 기원』(2024) · 『도덕지능 수업』(2023) · 『뇌 신경과학과 도덕교육』(2020) · 『통일교육학: 그 이론과 실제』(2020) ▲연구 및 전문 분야 · 도덕·윤리교육, 신경윤리 기반 도덕교육 · AI 윤리 교육, 디지털 시민성 교육 · 생성형 AI 할루시네이션과 윤리교육 대응