[디엘지 ESG칼럼(끝)] 메타가 소송 당한 이유···'윤리 워싱'에 빠지지 말아야
조금 지난 에피소드긴 하지만 '이루다' 챗봇 서비스에서 행해졌던 이용자들의 성희롱 논란, 차별적 혐오발언 등은 사회적으로 큰 파장을 낳았다. 이는, 인공지능(AI) 서비스가 잠재적으로 내포하고 있는 윤리적 리스크를 상징적으로 보여준 사례이자 디지털 사회에 경종을 울릴만한 사건이었다. 인공지능(AI)은 엄청난 양의 데이터를 학습해 가장 그럴싸한 답을 내놓기 때문에 우리 사회의 편향된 인식을 그대로 담아낸다. 즉, 태생적으로 과거의 차별과 편향, 불평등이 현재와 미래에도 반복되고 강화되는 구조의 알고리즘을 가질 수밖에 없다. 논란이 된 이루다 서비스는 며칠 뒤 곧바로 서비스를 중단했고, 이후 AI업계와 관련 분야에서는 디지털책임, 개인정보 유출, 기술윤리와 같은 사회적 책임에 대한 주제들이 공론화됐다. 그 후 2년이 흐른 지금, AI기술은 ChatGPT 열풍을 타고 더욱 확산되고 있으며 챗봇 서비스 뿐만 아니라 보건의료, 반도체, 로봇, 자동차 등 여러 산업에 융합돼 우리 사회 깊숙히 자리잡고 있다. 즉, AI와 연관돼 앞으로 발생 가능한 사회적 윤리적 리스크가 더욱 복합적이고 다층적일 수 있다는 뜻이다. 기업들은 이러한 AI기술로 인한 사회적 영향을 어떻게 예측하고 대응하고 있을까? 4천만 사용자를 보유한 국민앱 '카카오'는 국내 최초로 기술윤리위원회를 설치하고 카카오 디지털 플랫폼에서의 AI 윤리규정 마련 및 점검, 위험성 점검, 알고리즘 투명성 강화 등과 같은 정책을 추진해 'Tech for Good'을 실현하고자 노력하고 있다. 이러한 여러 노력 중에서도 차별적인 혐오표현, 증오발언을 기업의 ESG 차원에서 이해관계자 의견을 수렴하며 대응해 나가는 숙의 과정을 기록한 '카카오 증오발언 대응 정책 녹서'는 디지털 서비스를 운영하는 많은 스타트업과 IT기업들에게 좋은 참조모델이 되고 있다. 'AI Company'를 추구하는 SK텔레콤은 함께 공존하며 성장하는 사람 중심의 따뜻한 AI를 슬로건으로 삼아 사회적가치·무해성·기술안정성·공정성·투명성·지속혁신·사생활보호와 같은 AI 추구가치를 수립했고, 이 회사의 AI 대화 에이전트 '에이닷(A.)'에서는 AI 대화 실행 윤리 원칙을 적용했다. 특히, 윤리적 위험 소지가 있는 발화를 사전에 검증하고 방지할 수 있는 세이프티(Safety) 모듈과 답변 리디렉션, 품질보증(QA) 프로세스 내 AI가치를 통합하는 활동은 ICT기업의 현실을 담아 구체적이고 실질적인 업무 수준에서 ESG를 실천하고 있는 사례라 할 수 있다. 이외에도 KT의 책임있는 디지털 시대를 모토로해 추진하고 있는 보이스피싱 대응 활동, 장애인 사용자를 포함한 모든 사용자가 기술을 쉽게 접근하고 사용할 수 있도록 '접근 가능한 기술' 이니셔티브를 운영하고 있는 미국 마이크로소프트(Microsoft), 사회적 이익 증진·알고리즘 편향 최소화· 인권 존중을 담고 있는 구글의 AI 원칙 사례를 통해 우리는 혁신적인 기술 회사들이 나름의 방식으로 사회적 윤리적 책임을 펼치고 있다는 알 수 있다. 정부 차원의 노력은 어떠할까, 지난 해 12월 과기정통부와 한국정보통신기술협회(TTA)는 정보통신단체표준인 '인공지능 시스템 신뢰성 제고를 위한 요구사항'을 제정했다. 이 표준에는 기존의 '국가 AI 윤리기준'과 분야별 '신뢰할 수 있는 AI 개발안내서'를 기반으로 AI로 인해 영향을 주고받는 이해관계자를 고려해 시스템 초기 기획부터 설계·개발, 검증·확인, 배치, 운영 및 모니터링, 재평가, 폐기에 걸친 생명주기 전반에 설명가능성, 신뢰성, 안전성, 책임성, 투명성, 공정성, 프라이버시, 회복탄력성과 같은 특성을 갖추도록 제시했다. 이에 앞선 2022년 5월에는 국가인권위원회가 '인공지능 개발과 활용에 관한 인권 가이드라인'을 발표하고 AI에 대해 일종의 '인권영향평가'를 도입해 편향 시각이나 차별로 인해 인권침해 및 윤리 문제를 유발할 가능성을 방지할 수 있도록 했다. 인권영향평가는 사업과정, 정책, 입법 등이 인권에 미치는 영향을 측정하고 평가하는 도구로 국가, 지방자치단체, 기업 등이 추진하는 사업과정이나 정책 등에서 인권에 미치는 부정적 영향을 방지·완화하는 역할을 하는데 최근에는 기업 ESG 일환으로 인권실사 또는 인권영향평가를 도입하고 있는 추세다. 그런데, 이렇게 민간기업이 자발적으로 디지털 책임 활동을 펼치고 정부 주도로 AI 신뢰성 단체표준이 제정되었다고 해서 우리 사회의 디지털 윤리의식은 높아질 수 있을까? 앞으로 발생할 사회적 위험을 충분히 예방할 수 있을까? 이런 문제들을 자문해봐야 한다. 즉, '기술윤리 역설'을 조심해야 한다. 윤리원칙과 체계를 만들어 적용하고 있다고 해서 AI 등 디지털 서비스로 인해 발생할 수 있는 잠재적 책임의 면죄부를 얻게 되는 것은 아니기 때문이다. 이른 바, '윤리 워싱'이 되지 않도록 기업에서는 사회적 책임활동을 더욱 넓고 깊게 바라보며 세대 간·지역간 문화적 차이, 국가별 규제, 사회적 인식 등과 같은 눈높이에 끊임없이 맞춰가야 한다. 기업이 제공하는 기술과 서비스가 사람과 사회에 어떠한 영향을 주고받을 수 있을 것인지 심층적으로 예측하고 대응할 수 있어야 한다. 지난 10월, 페이스북과 인스타그램을 운영하는 세계최대 소셜미디어 메타가 미국의 41개주로부터 집단 소송을 당했다. SNS 서비스 알고리즘이 청소년 사용자를 장시간 붙잡아두기 위해 의도적으로 중독성이 강한 시스템을 설계해 결과적으로 어린이와 청소년 사용자의 정신건강에 피해를 주었다는 내용이다. 소송에서 주정부는 메타가 금전적 이익에만 초점을 맞춰 사용자에게 어떠한 영향을 끼칠 수 있을지 전혀 고려하지 않은 채, 또래집단에서 소외되거나 유행에 뒤처지기 싫어하는 청소년의 심리를 자극해 더 많은 광고에 노출되도록 SNS에 머물게 한 것에 대해 금전적 손해배상과 관련 알고리즘 제거를 요청하였다. 과거 대중 건강을 희생해 이익을 극대화했던 담배회사처럼 청소년 정신건강을 희생해 기업의 이익을 극대화하는 기업을 과연 혁신기업이라고 할 수 있을까. 기술이 항상 좋은 방향으로 진보하는 것은 아니다. 기술로 인한 변화가 사람과 사회에 이로운 방향으로 성숙해 나갈 때, 비로소 혁신이 되고 우리 사회의 지속가능한 발전에 기여하는 것임을 잊지 말아야 한다.