[기고] EU AI법 시행과 AI규제 방향
챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 2013년작 영화 '그녀(Her)'에서 인공지능(AI) 서비스 사만다가 등장한다. 사만다는 이용자 맞춤형 소프트웨어(SW)인데 인간과 자연스러운 대화를 할 뿐만 아니라 대량 정보를 처리하면서 스스로 학습하고 인간과 교감을 하는 것처럼 보이는 단계까지 진화하는 모습을 보여준다. 이 영화는 AI 서비스가 등장한다면 어떤 모습일지를 풍부한 상상력으로 구현했다. 그 후 10년도 채 지나지 않아 챗GPT가 등장해 현실에서도 인간과 유사한 지능을 구현한 AI인 범용인공지능(AGI) 서비스가 상용화되는 날이 머지않아 올 것이란 기대를 갖게 됐다. 기술발전이 빠르게 진행되면서 AI기술과 그에 기반한 새로운 서비스를 어떻게 규제 영역으로 포섭하는 것이 좋을지에 대한 논의도 활발하게 진행되고 있다. 유럽연합(EU)은 2018년 일반 개인정보 보호법인 GDPR(General Data Protection Act)를 제정했다. 당시 개인정보 규제에 있어 전세계적인 영향력을 발휘함으로써 소위 브뤼셀 효과(Brussel effect)라는 신조어를 낳았다. 이처럼 AI 규제 분야에서도 선도적인 역할을 하고 있다. 그 결과 올해 8월 1일 AI에 관한 전세계 최초의 포괄적인 규제법인 EU AI법이 발효됐다. EU AI법은 부정적 영향을 줄 위험이 높을수록 더 엄격한 규제가 적용되게 구성됐는데 특정 제품이나 분야에서 AI 기술을 활용할 때 발생할 수 있는 위험 정도에 따라 허용할 수 없는 위험, 고위험, 제한된 위험 및 최소한의 위험으로 구분해 차등적으로 규제하고 있다. EU AI법 전문 제1조는 이 법의 목적으로 '인간 중심적이고 신뢰할 수 있는 AI의 활용을 촉진하고, EU내 AI 시스템의 유해한 영향으로부터 민주주의, 법령 및 환경 보호 등 EU 기본권 헌장에 명시된 건강, 안전 및 기본권을 높은 수준으로 보호'하는 것을 포함하고 있다. AI 시스템은 어디까지나 인간을 돕기 위한 것이어야 함을 전제하고 있고 자연히 인간의 기본적 권리를 침해할 가능성이 있는 AI 기술 활용은 금지된다. 이 법에서 명시하고 있는 금지된 AI 서비스로는 행동을 왜곡하고 정보에 입각한 의사결정을 방해해 심각한 피해를 입히는 잠재의식, 조작 또는 기만적 기술을 배포하는 경우, 직장 및 교육 기관에서 개인의 감정을 추론하는 경우, 인종, 종교적 신념, 성적 지향 등과 같은 보호되는 특성에 따라 개인을 분류하는 생체 인식 분류 시스템으로서의 AI 시스템, 인터넷이나 CCTV 영상에서 얼굴 이미지를 비표적 스크래핑해 얼굴 인식 데이터베이스를 생성하거나 확장하는 경우, 개인의 특성·행동과 관련된 데이터로 개별 점수를 매기는 사회적 점수 매기기 등이 있다. 금지되는 것까지는 아니지만 인간의 안전이나 기본권에 고위험을 가져올 수 있는 AI시스템에 대해서도 EU AI법은 상세히 규정하고 있다. 의료, 교육, 선거, 핵심 인프라 등에 활용되는 AI 기술은 고위험 등급으로 분류돼 시장에 출시되기 전 인간이 AI 사용을 반드시 감독해야 하고 위험관리시스템을 갖춰야 한다. 고위험 AI시스템의 요건을 충족하는지 확인되면 위험평가와 관리 의무가 부가된다. 이러한 고위험 AI 시스템에는 의료 기기, 장난감, 기계류 등 EU 제품 안전 규정에 따라 규제되는 제품 또는 해당 제품의 안전 구성 요소인 AI 시스템, 중요 인프라, 금지되지 않는 생체 인식, 생체 인식 분류 시스템 또는 감정 인식 시스템인 AI 시스템, 고용, 근로자 관리 및 자영업에 대한 접근에 사용되는 AI 시스템, 개인의 신용도를 평가해 신용 점수를 설정하는 AI 시스템 및 생명 및 건강 보험의 경우 개인과 관련된 위험 평가 및 가격 책정에 사용되는 AI 시스템 등이 포함된다. EU AI법의 제반 규정들은 인간 중심적 AI를 개발 및 활용해야 한다는 입법 취지를 명확하게 반영하고 있다. 금지된 AI 서비스와 고위험 AI 시스템에 대한 규제를 보면 AI기술 발전에 따라 초래될 수 있는 인간의 자유와 기본적 권리를 침해하는 데이터 활용을 원천적으로 차단하고자 하는 의지가 느껴진다. 이에 대해서는 EU AI법이 과도한 선제적 규제로 AI기술과 시장이 미처 성숙할 시간을 주지 않고 규제해 AI기술의 발전에 제약이 될 것이며, 위반 시 전세계 매출액의 최대 3퍼센트(금지된 AI를 출시할 경우 전세계 매출액의 7퍼센트)에 해당하는 과징금의 부과에 대해서도 너무 큰 부담을 지우는 것이라는 의견도 존재한다. 새로운 기술의 개발 및 활용에 있어 규제를 공백으로 두기 보다는 어느 정도의 규제는 필요할 것이다. 아직 AI에 대한 구체적인 법령이 발효되지 않았지만 오랜 기간 이에 고민을 해온 우리나라는 포괄적 AI규제의 사실상 첫 스타트를 끊은 EU AI법의 내용뿐만 아니라 해당 법 집행에 따른 결과 등을 면밀히 분석함으로써 국민 기본권을 보호할 뿐만 아니라 국제적인 산업경쟁력을 갖출 수 있도록 하기 위한 AI 법제를 구축할 수 있기를 기대해 본다.