[기고] EU 플랫폼 노동 지침과 자동화된 의사결정
챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)의 발전은 자율주행차, 로봇, 신약 개발 등 거의 모든 분야에서 혁신을 이끌며 우리의 삶을 더욱 편리하고 효율적으로 바꾸고 있다. 그럼에도 불구하고 이러한 편리함과 효율성이라는 눈부신 성과 뒤에는 인간의 자유, 권리, 존엄성에 대한 새로운 도전과 잠재적 위협이 숨어 있다. 대규모 데이터를 학습한 AI 시스템은 인간의 개입 없이도 자동으로 의사결정을 내릴 수 있다. 이러한 자동화된 의사결정(ADM, Automated Decision-Making)은 확장성 등의 측면에서 인간이 내리는 결정보다 파급력이 클 수 있다. 이에 따라 AI시스템에 의한 자동화된 결정을 도입하기에 앞서 개인의 자유와 권리에 대한 영향뿐만 아니라 사회의 공정성과 책임성에 대한 검토가 필요하다. AI와 자동화된 의사결정이 어떻게 인간의 권리를 위협할 수 있는지에 대해선 현재 활발한 논의가 진행 중이다. 디지털 경제의 급격한 발전으로 인해 다양한 플랫폼이 등장했고 수많은 근로자들이 디지털 플랫폼에서 일하게 됐다. 유럽연합(EU)에서 이러한 근로자들은 종종 '자영업자'나 '독립 계약자'로 분류되는 경우가 있다. 그럼에도 이러한 근로자들은 실질적으로 그들의 고용주로 볼 수 있는 플랫폼의 알고리즘에 의해 관리되고 통제되는 경우가 많다. 이러한 관리와 통제의 과정에서 근로자는 일방적으로 자동화된 의사결정에 따라 업무가 배정되거나 평가받으며 그 결과로 근로자로서의 권리와 보호에서 소외되는 경우가 발생하기도 한다. EU는 이같은 플랫폼 근로자의 근로자성에 대한 문제를 해결하기 위한 논의를 진행했다. 또 플랫폼 근로자를 보호하고 권리를 강화하는 법적 틀을 마련하고자 했다. 이에 따른 성과로 지난 3월 11일 'EU 플랫폼노동 입법지침(EU Platform Work Directive)' 최종 타협안을 승인하기에 이르렀다. 이에 따라 EU 회원국은 2년 내 지침에 따른 관련법을 제정해야 한다. 'EU 플랫폼노동 입법지침'은 플랫폼 근로자의 법적 지위를 명확히 하고 그들이 적절한 사회보장을 받을 수 있도록 하는 데 중점을 둔다. AI 기반 알고리즘은 플랫폼 근로자에게 자동으로 업무를 배정하고 성과를 평가하며 이에 따른 보상을 결정하지만 학습된 데이터가 편향돼 있을 경우 이러한 데이터에 기반한 의사결정도 편향될 수 있다. 또 알고리즘이 어떻게 작동하는지와 어떤 기준으로 의사결정을 내리는지에 대한 정보가 노동자에게 충분히 제공되지 않는 경우가 많다. 알고리즘은 자동으로 결정을 내리지만 그 결정이 잘못되었을 때 누구에게 책임을 물을 것인지는 명확하지 않다. 플랫폼은 알고리즘의 오류나 편향성에 대해 책임을 회피할 수 있으며 노동자는 이로 인해 발생한 불이익에 대해 보호받지 못할 수 있다. AI와 자동화된 의사결정이 근로자의 권리에 미치는 영향을 줄이기 위해서는 인간의 개입과 책임성이 어느 정도 보장돼야 할 것으로 생각된다. AI나 자동화된 결정에 대해 근로자는 언제든지 인간의 개입을 요구할 수 있어야 한다. 또 잘못된 결정이 내려졌을 경우 이에 대한 명확한 책임 소재가 규정돼야 한다. AI와 자동화된 의사결정 시스템이 노동 시장에서 효율성과 편리성을 높이는 데 큰 역할을 하고 있음에도 근로자 권리를 침해할 위험도 커지고 있다. EU 플랫폼 노동 지침은 이러한 위험을 줄이기 위해 알고리즘 투명성, 인간의 개입, 공정성 확보 등 여러 가지 규제를 도입하고 있다. 앞으로도 기술 발전에 따른 새로운 윤리·법적 문제에 대한 지속적인 논의와 규제가 필요하다. 이를 통해 AI가 사회에 긍정적인 변화를 일으키는 동시에 인간의 존엄성과 권리를 지킬 수 있도록 해야 할 것이다.