[이성엽의 IT프리즘] SNS 중독과 플랫폼의 책임의 확장
2026년 3월 25일, 미국 로스앤젤레스 카운티 상급법원에서 선고된 SNS 중독과 플랫폼 책임을 둘러싼 사건의 평결은 소셜미디어 기업의 책임을 둘러싼 법적 논의에서 중요한 전환점으로 평가된다. 이 사건은 단순히 게시물 내용이 아니라 플랫폼의 설계와 경고의무를 정면으로 문제 삼았다는 점에서 의미가 있다. 아직 1심 배심 평결 단계이고 항소 가능성이 남아 있지만, 적어도 플랫폼은 단지 중립적 통로에 불과하다는 기존 방어 논리가 더 이상 유효하지 않을 수 있다는 점을 보여주었다. 이 평결은 1990년대 말 담배 회사들이 중독성을 은폐하다 천문학적 배상을 해야 했던 이른바 '빅토바코(Big Tobacco) 소송'에 빗대어, '소셜미디어의 빅토바코 모멘트'로 평가된다. 원고 K.G.M.(본명 Kaley)은 6세부터 유튜브, 9세부터 인스타그램을 사용하기 시작했으며, 성장 과정에서 우울증, 불안, 신체 이형장애, 자살 충동을 겪었고, 그 원인을 플랫폼의 중독적 설계에 있다고 주장했다. 구체적으로 원고 측 주장은 다음과 같다. 첫째, 무한 스크롤, 자동재생, 푸시 알림, '좋아요' 기능 등은 도파민 보상 체계를 자극해 이용자를 중독시키도록 의도적으로 설계된 요소라는 점이다. 둘째, 기업이 위험을 인지하고도 충분히 공개하지 않았다는 점이다. 재판에서는 메타 내부 문서가 핵심 증거로 제출되었는데, 여기에는 경영진이 청소년에게 미치는 부정적 영향을 인지하면서도 아이들을 플랫폼으로 유입시켜야 한다는 전략을 수립했다는 정황이 담겨 있었다. 셋째, 이용자 안전보다 체류 시간과 광고 수익을 우선했다는 점이다. 반면 피고 측은 다음과 같은 항변을 제시했다. 첫째, 1996년 제정된 미국 통신품위법(Communications Decency Act) 제230조에 따라 제3 자가 게시한 콘텐츠에 대해서는 플랫폼이 면책된다고 주장했다. 둘째, 수정 헌법 제1조를 들어 추천 알고리즘을 통한 콘텐츠 배치는 기업의 '편집권(editorial discretion)'으로서 표현의 자유에 해당한다고 항변했다. 셋째, 원고의 정신건강 악화는 가족 갈등 등 복합적 요인에 기인한 것으로 플랫폼과의 인과관계가 불분명하다고 반박했다. 넷째, 서비스 이용과 이용 시간 조절은 이용자 본인 및 보호자의 책임이며, 플랫폼은 이미 연령 제한·보호자 감독 기능 등 자율규제를 시행 중이라고 강조했다. 배심원단은 원고에게 총 600만 달러의 손해를 인정했으며, 이 가운데 절반은 징벌적 손해배상에 해당한다. 책임 비율은 메타 70%, 구글 30%로 배분되어 메타는 420만 달러, 구글은 180만 달러를 부담하게 됐다. 이 평결에 나타난 세 가지 법리는 다음과 같다. 첫째, 설계 결함(Design Defect) 이론의 적용이다. 배심원단은 플랫폼을 단순 서비스가 아닌 결함 있는 제품으로 보고, 책임의 초점을 콘텐츠가 아닌 알고리즘과 인터페이스 설계로 이동시켰다. 소셜미디어가 제조물책임의 틀에서 판단된 첫 사례라는 점에서 의미가 크다. 둘째, 제230조의 적용 범위 한정이다. 이 조항의 원래 입법 목적은 제3자 콘텐츠에 대한 발행자 책임을 면책하는 데 있었지, 플랫폼이 직접 설계한 중독적 인터페이스나 알고리즘에 대한 책임까지 면제하려는 것은 아니었다. 법원은 콘텐츠에 대한 면책을 유지하면서도, 플랫폼이 자체적으로 구축한 기능, 즉, 알림 시스템, 추천 알고리즘, 참여 유도 구조 등에 대해서는 면책이 적용되지 않는다고 판단했다. 셋째, 수정 헌법 제1조 항변의 제한이다. 추천 알고리즘은 창작적 표현이 아니라 이용자 행동 데이터를 분석해 참여를 극대화하는 기술적 메커니즘에 가깝다는 점에서 표현의 자유로 보호받는 편집권의 범주에 속하지 않는다는 것이다. 다만 동 판결은 소셜미디어 중독 개념 자체가 정신의학·심리학계에서 여전히 논쟁적이고 정교하지 않은 개념인데, 이를 전제 삼아 광범위한 제품책임, 징벌적 손해를 인정하는 것은 과학적 기반이 취약하다는 비판을 받는다. 또 설계 결함 논리가 확장될 경우, 뉴스피드, 검색, 이커머스 추천 등 거의 모든 알고리즘이 규제 대상이 될 수 있다는 점에서 혁신 위축과 표현의 자유 제한 우려도 제기된다. 설계 책임 이론이 확장되면 중소 플랫폼·스타트업은 소송 비용을 감당하기 어려워 시장 진입이 위축되고, 플랫폼들이 잠재적 책임을 피하기 위해 과잉 차단이나 필터링으로 대응하는 경우 결과적으로 표현의 자유가 위축될 수 있다. 또한 입법과 정책의 문제를 배심 평결로 해결하려는 것은 바람직하지 않으며, 입법·규제 채널을 통한 대안이 우선되어야 한다는 비판도 있다. 아직 이 사건은 확정판결이 아니고, 상급심에서 결과가 달라질 여지도 있다. 그럼에도 이번 평결의 메시지는 법적 책임의 논의 축이 더 이상 게시물 내용에만 머무르지 않고, 이용자의 체류와 반복 사용을 유도하는 플랫폼 설계 자체로 이동할 가능성이 있다는 것이다. 향후 무한 스크롤, 알림 설계, 추천 알고리즘에 대한 규제 논의가 본격화될 가능성이 있다. 실제로 호주는 2025년 12월부터 16세 미만의 계정 보유를 제한하는 제도를 시행 중이며, 말레이시아, 인도네시아도 올해부터 16세 미만 아동의 계정 개설을 제한하는 조치에 들어갔다. 그 외 프랑스·영국·스페인·덴마크 등은 입법 또는 정책 검토를 진행 중이다. 한국에서는 이미 올해 1월 시행된 AI 기본법을 통해 추천 알고리즘을 포함한 AI 시스템에 대한 투명성 의무가 도입됐으나, 소셜미디어의 중독적 설계 자체를 규율하는 법제는 아직 마련되지 않았다. 한 여론조사에 따르면 국내 여론의 73%가 청소년 SNS 이용 제한에 찬성하는 가운데 국회에 관련 법안이 복수 계류 중이며, 방송미디어통신위원회도 2026년 초부터 관련 정책 마련에 착수했다. 향후 알고리즘 투명성, 중독적 설계 규제, 청소년 보호를 중심으로 한 논의가 본격화될 것으로 예상된다.