"딥페이크 식별 위해 AI 생성물 표시 의무 해야"
딥페이크와 실제 사실을 구분하지 못해서 발생하는 위험으로부터 이용자를 보호하고 사회적 혼란을 줄이기 위해서 인공지능(AI)으로 생성되거나 조작된 정보는 별도로 표시하도록 의무화하는 방안이 필요하다는 제언이 나왔다. 딥페이크는 인공지능(AI)으로 만든 가상의 정보이지만 실제 사실처럼 정교해서 사람들이 가짜임을 구분하기가 어렵다. 현실감 넘치는 콘텐츠 제작에 유용하게 사용되기도 하지만, 타인 사칭 범죄나 합성음란물에 악용되어 사회적 혼란과 개인의 피해를 초래하기도 한다. 국회입법조사처의 '이슈와 논점' 보고서에 따르면 AI로 만든 정보임을 표시하여 사람들이 딥페이크를 쉽게 식별하고 위험을 예방하게 할 필요가 있다. 분야별 딥페이크 규제와 AI 관점의 일반 규제가 서로 맞물리는 '이중 안전장치'를 갖춰야 한다는 지적이다. 현재 유럽연합은 '인공지능법'을 시행하고 있다. 이 법은 AI 시스템 제공자와 배포자에게 AI 생성물임을 표시하는 의무를 부과해 사람들이 딥페이크를 쉽게 식별하는 기반을 만들었다. 다만 범죄 수사나 순수한 예술·표현 등에 사용되는 딥페이크에 대해서는 공개 의무가 적용되지 않는다. 또 초대형 온라인 플랫폼 사업자가 실존 인물, 물체, 장소 등과 상당히 유사하고 진실인 것처럼 보이도록 생성 또는 조작된 콘텐츠를 온라인에 게시하려면 그것이 조작된 것임을 눈에 잘 띄게 표시하는 의무를 부과한다. 미국에는 연방 차원의 AI 규제법은 없다. 대신 정부공공기관에 AI 관련 의무를 부과하기 위해 2023년 12월 바이든 대통령의 행정명령이 시행 중이다. 미국은 딥페이크를 합성콘텐츠로 규정하고 정부에 합성콘텐츠의 진위와 출처를 확인하는 방안을 마련하도록 했다. 이에 따라 정부는 상무부장관이 중심이 돼 콘텐츠 진위 여부를 확인하고 출처를 추적하는 방법, 합성콘텐츠임을 표시하는 방법, 합성콘텐츠를 탐지하는 방법 등 AI로 생성한 정보를 식별하는 기술을 개발해야 한다. 연방의회에는 AI 생성물임을 표시하도록 의무화하는 법률안이 다수 발의되어 있다. 딥페이크 제작자를 공개하고 딥페이크 탐지 기술을 적용하도록 규정한 '딥페이크 책임법안', AI 개발자와 이용자 등에게 AI로 만든 콘텐츠임을 표시하는 의무를 부과하는 '인공지능 표시법안', 생성형 AI 서비스 제공자에게 가상 정보를 생성한 애플리케이션의 이름, 콘텐츠를 생성하거나 수정한 날짜와 시간 등의 메타데이터를 제공하도록 의무화한 '기만적인 AI로부터의 소비자 보호법안' 등이다. 국내도 AI법안을 논의중이다. 제22대 국회에는 1건의 인공지능법안이 발의돼 있고, 이 중에서 5건 법안이 생성형 AI로 만든 콘텐츠는 해당 사실을 표시하도록 규정한다. 생성형 AI를 이용하여 제품 또는 서비스를 제공하려는 자는 해당 제품 또는 서비스의 결과물이 생성형 AI에 의하여 생성됐다는 사실을 표시해야 한다. 또 '정보통신망 이용촉진 및 정보보호 등에 관한 법률 일부개정법률안'에도 AI 생성물임을 표시하는 법률안이 존재한다. 국회입법조사처는 현재 시행 중인 유럽연합 '인공지능법'과 미국 '인공지능 행정명령', 국내에 발의된 다수의 인공지능법안 내용을 기반으로 AI로 만든 정보임을 표시하도록 하는 입법 방안을 모색해야 한다고 밝혔다. 먼저 표시 의무 적용 범위는 'AI로 생성한 콘텐츠'로 설정해 명확성을 높이고, 대신 피해 가능성이 낮은 분야는 예외로 설정하는 것이 적절하다고 제안했다. '실제와 구분하기 어려운' 등의 요건을 추가할 경우 판단 과정에 주관성이 개입되어 법률 집행의 혼란이 발생할 우려가 있다. 또한 AI 모델을 개발, 판매하는 자에게는 기계 판독 가능한 메타정보 제공과 같은 식별가능성 확보 의무를 부과하고, AI 모델을 자신의 제품・서비스에 활용하는 자에게는 AI로 생성된 정보임을 표시하는 의무를 부과하여 딥페이크의 대량생산에 대응해야 한다. 이용자가 직접 오픈소스 등으로 AI를 만들어 생성한 콘텐츠는 타인에게 공개・제공될 때 표시하도록 규정할 수 있다. 이에 딥페이크 콘텐츠를 유통하는 온라인 플랫폼은 적법한 표시 의무를 이행하지 않은 콘텐츠에 대한 처리 방침을 명확히 공개하고, 부적절한 표시가 되었다고 신고된 콘텐츠에 대해서는 삭제 또는 임시조치하도록 할 필요가 있다는 설명이다. 마지막으로 제도 정착을 위한 정부의 지원도 필요하다. 정부는 AI 생성물 표시 제도의 정착을 위해 관련 기술의 개발, 긴밀한 국제협력, 국민의 디지털 리터러시 함양을 지원해야 한다. 보고서는 "AI 발전 속도를 고려한다면 앞으로 딥페이크는 더욱 증가하고 정교해질 것이다. 지금처럼 피해자의 신고에 의존하거나 규제기관의 모니터링으로 차단하는 방식은 한계에 직면할 수 밖에 없다"며 "딥페이크가 만들어지고 유통되는 단계에서 적절하게 표시될 수 있도록 의무화하는 것이 필요하다"고 밝혔다.