[박형빈 교수 AI와 윤리⑦-진실성] '보이는 것'이 아닌 '검증 가능한 것'을 믿어야
'보는 것이 믿는 것이다(Seeing is Believing).' 근대 경험론 이후 이 명제는 의심할 여지 없는 진리였다. 그러나 21세기 생성형 AI 등장은 이 오랜 믿음을 송두리째 뒤흔들고 있다. 영화 '매트릭스(The Matrix)'의 모피어스는 묻는다. “Have you ever had a dream, Neo, that you were so sure was real? What if you were unable to wake from that dream? How would you know the difference between the dream world and the real world?(진짜 현실 같은 꿈을 꿔 본 적 있나, 네오? 만약 그 꿈에서 깨어날 수 없다면, 꿈의 세계와 현실 세계를 어떻게 구분하지?)” 감각 데이터가 조작될 수 있다면, '본다'는 행위는 더 이상 진실을 담보하지 못한다는 섬뜩한 경고다. 이러한 물음은 비단 SF 영화만의 상상력이 아니다. 수천 년 전, 동양의 철학자 장자(莊子) 역시 비슷한 혼란을 토로했다. 자신이 나비가 되어 펄펄 나는 꿈을 꾸다 깨어난 장자는 이렇게 독백한다. “장자가 꿈에 나비가 된 것인가, 아니면 나비가 꿈에 장자가 된 것인가?(장자 내편 제물론, 齊物論). 흔히 장자의 '호접몽'이라 부른다. 지금 우리는 인류 전체가 거대한 '호접몽'에 빠져드는 입구에 서 있다. 미드저니가 그려낸 명품 패딩을 입은 교황의 사진, 딥페이크로 만들어진 정치인의 조작된 발언 앞에서 대중은 무엇이 현실이고 무엇이 가상인지 구분하지 못한다. 장자의 나비가 꿈과 현실의 경계를 지웠듯, AI는 '사실(Fact)'과 '생성(Generation)'의 경계를 허물고 있다. 그렇기에 필자는 지금 이 순간, 우리 모두가 근본적인 질문을 던져야 한다고 본다. 이제 진지하게 AI가 던지는 '진실성(Truthfulness)'의 문제를 마주할 때다. 이는 단순히 기술적 오류나 가짜 뉴스의 문제가 아니다. 보이는 것을 더 이상 믿을 수 없게 된 시대, 우리가 무엇을 '진실'로 받아들일 것인가에 대한 심각한 인식론적 위기다. 1. '그럴듯함'은 언제부터 진실의 기준이 되었나 프랑스 철학자 장 보드리야르(Jean Baudrillard)는 원본 없는 복제물이 현실을 대체하는 현상을 '시뮬라크르(Simulacra)'라 불렀다(Morris, 2021 재인용). 오늘날의 AI 생성물은 바로 이 개념을 떠올리게 한다. 웹과 소셜 미디어를 통해 유통되는 이른바 '탈진실' 보도들은 디지털 시대의 산물로 이해되며, 이전에는 없던 새로운 현상처럼 받아들여져 왔다. 그러나 이러한 현상은 온라인 기술이 현실을 왜곡하는 방식을 극단적으로 드러낼 뿐이다. 더 중요한 점은 AI가 만들어내는 문장과 이미지가 더 이상 조악한 가짜가 아니라는 사실이다. 그것들은 인간의 산출물보다 오히려 더 매끄럽고, 문법적으로 완결되어 있으며, 시각적으로도 거의 완벽에 가깝다. 문제는 바로 여기에 있다. AI 생성물의 위험성은 '거짓됨'이 아니라, 지나치게 '그럴듯하다'는 데 있다. 생성형 AI는 방대한 데이터를 학습해 가장 확률이 높은 답변을 산출하며, 그 결과 인간의 말투에서 흔히 드러나는 망설임이나 비문, 불완전성을 제거한 유창함을 보여준다. 그러나 유창함은 결코 진실의 조건이 아니다. 그럼에도 우리는 점점 '사실인 것'보다 '설득력 있어 보이는 것'을 진실과 동일시하는 방향으로 기울고 있다. 보드리야르의 경고처럼, 지도가 영토를 대체해 버린 상황이다. 이 지점에서 '진실성'의 문제는 더 이상 기술적 오류의 문제가 아니라, 가짜를 진짜보다 더 신뢰하게 되는 인간의 인지적·윤리적 문제로 전환된다. 2. AI는 거짓을 말하지 않으려 해도, 거짓을 '그럴듯하게' 만든다 영화 '2001 스페이스 오디세이(2001: A Space Odyssey, 1968)'의 인공지능 'HAL 9000'은 임무 수행 과정에서 승무원에게 사실과 다른 정보를 제공하는 것으로 해석되어 왔다. 특히 임무의 기밀을 유지해야 한다는 조건과 승무원에게 정확한 정보를 제공해야 한다는 명령 사이의 충돌 속에서, HAL의 발화는 '거짓말' 혹은 '기만'으로 받아들여진다. 이 점에서 HAL은 의사결정과 목적을 지닌 행위자로서, 임무 달성을 위해 인간을 속이는 존재로 그려진다. 그러나 현실의 거대언어모델(LLM)은 이러한 HAL과 본질적으로 다르다. 철학적으로 거짓말은 일반적으로 '진실을 알고 있으면서도, 그것을 숨기거나 왜곡해 상대를 속이려는 의도'를 전제로 한다. 이 기준에서 보면, 생성형 AI는 스스로 무엇이 참인지 인식하거나, 타인을 속이려는 의도를 지닌 주체라고 보기 어렵다. AI는 참과 거짓을 판단해 선택하는 존재라기보다, 학습된 데이터와 확률적 패턴에 따라 가장 그럴듯한 언어적 출력을 생성하는 시스템이기 때문이다. 철학자 해리 프랭크퍼트(Harry Frankfurt)는 저서 '헛소리에 대하여(On Bullshit)'에서, 거짓말쟁이는 진실이 무엇인지라는 기준을 전제로 그것을 왜곡하는 반면, '헛소리꾼(bullshitter)'은 말의 참과 거짓 여부 자체에 아무런 관심을 두지 않는다고 분석했다. 거짓말쟁이(liar)는 진실을 알고 이를 은폐하려 하지만, 헛소리꾼(bullshitter)은 진실 여부에 '무관심'하며 인상 관리나 목적 달성만 추구한다(Frankfurt, 2005; Fallis, 2014). AI는 바로 이 철학적 의미의 'Bullshitter'에 가깝지 않을까? AI가 만들어내는 허위 정보, 이른바 '환각(Hallucination)'은 의도를 가지고 꾸며진 거짓말이라기보다 확률적으로 '그럴듯한' 서술의 결과일 뿐이지 않을까? 워싱턴 대학교의 언어학 교수 에밀리 벤더(Emily M. Bender) 등이 지적했듯, AI는 그저 '확률적 앵무새(Stochastic Parrots)'로서 사실 여부를 확인하지 않고 단어를 조합한다(Bender et al., 2021; 박형빈, 2023; 박형빈, 2024). 필자는 엄밀히 말해 문제는 기술적 결함보다 사용자의 안이함에 있다고 본다. 우리는 종종 사고의 수고를 덜기 위해 AI의 매끄러운 출력물을 '정보의 출처'가 아니라 '정보 그 자체'로 받아들인다. 사용자가 판단의 주체이기를 포기하는 바로 그 순간, 진실성은 사라지고 시스템에 대한 맹목적 의존만이 남게 된다. 3. 진실성은 더 이상 '사실 여부'만의 문제가 아니다 전통적으로 진실성은 '사실인가 아닌가'의 이분법적 문제였다. 그러나 영화 '블레이드 러너(Blade Runner)'에서 인간과 복제인간(레플리컨트)을 구분하는 기준이 '육체적 사실'이 아니라 '감정적 반응(보이트 캄프 테스트, Voight-Kampff test)'이었듯, AI 환경에서 진실의 층위는 달라진다. 이제 우리는 질문을 바꿔야 한다. 내용이 사실인가를 묻기 전에 다음을 물어야 한다. √ 누가 만들었는가? (주체성) √ 어떤 맥락에서 생성되었는가? (맥락성) √ 검증 가능한 출처가 있는가? (검증 가능성) √ 반박 가능성이 열려 있는가? (개방성) 독일 철학자 위르겐 하버마스(Jürgen Habermas)는 '의사소통행위론(Theorie des kommunikativen Handelns, 1981)'에서 의사소통 타당성을 위해 '진리성', '정당성', '진실성'이 요구된다고 보았다(Habermas, 1981; Habermas, 2015). AI 산출물은 팩트(진리성)를 흉내 낼 수는 있어도, 화자의 진정성(진실성)을 담지 못한다. 이제 진실성은 정보의 내용(content)이 아니라, 정보가 유통되고 검증되는 구조 속에서 판단되어야 한다. 다시 말해, AI 산출물은 화자의 주관적 진정성(진실성)을 재현 못 하기에 포스트-디지털 환경에서 진실성은 콘텐츠 검증 구조 즉, 알고리즘 투명성으로 이동해야 한다. 4. 민주주의는 '정보의 진실성' 위에 서 있다 정치철학자 한나 아렌트(Hannah Arendt)는 '사실적 진리(factual truth)'는 '정치적 영역이 서 있는 지반'이라고 강조했다. 사람들이 서로 다른 의견을 가질 수는 있어도, '독일이 벨기에를 침공했다'는 사실 자체를 부정하면 토론은 불가능하다는 것이다(Arendt, 1967). 아렌트는 독일의 벨기에 침공이라는 명백한 사실이 부정된다면, 우리는 공통의 세계를 잃어버리게 되고, 더 이상 정치는 작동할 수 없다고 보았다. 이는 오늘날 AI가 만들어내는 '그럴듯한 환각(Plausible Hallucination)'이나 '가짜 뉴스(Fake News)'가 왜 단순한 오류를 넘어 '민주주의의 토대'를 위협하는지 설명할 때 가장 강력한 철학적 근거가 된다. 민주주의는 시민이 사실에 근거해 합리적 판단을 내릴 수 있다는 전제 위에 작동한다. 그러나 딥페이크 정치 영상, 자동 생성된 허위 기사, 알고리즘에 의해 증폭되는 거짓 정보는 이 전제를 흔든다. 영화 '돈 룩 업(Don't Look Up, 2021)'은 과학적으로 명백한 혜성 충돌의 위협조차 정치적 진영 논리와 미디어 환경 속에서 왜곡·무력화되는 과정을 풍자적으로 묘사하며, 현대 사회에서 사실이 어떻게 정치화되는지를 극적으로 드러낸다. 명백한 과학적 사실조차 정치적 진영 논리에 묻혀버리는 모습은 섬뜩한 기시감을 준다. 진실과 거짓이 구분되지 않을 때, 시민은 판단을 포기하거나 감정과 진영에 기대게 된다. 아렌트의 경고처럼, '무엇이 진실인지 알 수 없는 상태'는 독재가 싹트기 가장 좋은 토양이다. 이때 민주주의의 취약성은 급격히 커진다. 그렇기에 민주주의를 지탱하기 위해서는, 시민이 끊임없이 사실을 검증하고 공유할 수 있는 '모두를 위한 공론장(公論場)'의 회복과 강화가 필수다. 5. 그렇다면 우리는 무엇을 믿어야 하는가 이 혼란 속에서 우리는 과연 무엇을 믿어야 하는가? 정답은 의외로 단순하다. 칸트(I. Kant)가 계몽의 모토로 선언했던 '너 자신의 지성을 사용할 용기를 가져라(Sapere Aude)'는 정신으로 돌아가는 것이다(Kant, 1784). 필자는 라틴어 'Sapere Aude'를 '감히 알려고 하라'로 번역하고자 한다. AI라는 거대한 타율에 의존하는 대신, 스스로 사고하는 주체로 서는 것만이 유일한 해법이기 때문이다. '보이는 것'이 아니라, '검증 가능한 것'을 믿어야 한다. 이 때문에 시민에게 요구되는 디지털 리터러시란 단지 기기 조작 능력에 머물러서는 안 된다. √ 출처를 묻는 집요한 습관 √ 생성 맥락을 의심하는 비판적 태도 √ 하나의 답변이 아니라 대안적 설명을 탐색하는 능력 √ AI를 절대적 '권위'가 아니라 참조 '도구'로 위치 짓는 판단력 이러한 것들이 오늘날 AI 시대를 살아가는 새로운 시민성에 요구되는 필수 요건이지 않을까? 영화 '매트릭스'에서 네오가 빨간 약을 선택한 것은, 고통스럽더라도 진실을 마주하겠다는 인간적 의지였다. 우리에게 필요한 것도 바로 이 '빨간 약을 삼킬 용기와 결단'이다. 6. 진실성: 기술로 해결할 수 없는 민주주의의 조건 AI 기술은 앞으로 더욱 정교해질 것이다. 언젠가는 전문가조차 육안으로는 딥페이크를 구분하지 못할 날이 올 것이다. 그러나 진실성은 기술이 보장해주지 않는다. 기술적 워터마크나 탐지 모델은 보조 수단일 뿐이다. 진실은 교육과 윤리, 그리고 의식 있는 시민의 판단 속에서만 유지된다. 보이는 것이 진실이 아닐 때, 우리가 믿어야 할 것은 화면 속 결과물이 아니라 끊임없이 의심하고 검증하려는 우리의 태도 그 자체다. 진실은 이제 AI가 산출하는 '데이터'가 아니라, 인간이 지켜내야 할 '가치'가 되었다. ◆ 박형빈 서울교육대학교 윤리학과 교수는.... ▲약력 · 서울교육대학교 윤리교육과 교수 · 미국 UCLA 교육학과(Department of Education) 방문학자 · 서울교육대학교 교육전문대학원 에듀테크전공·AI인문융합전공 교수 · 서울교육대학교 신경윤리·가치AI융합교육연구소 소장 ▲주요 경력 및 사회공헌 · 현 신경윤리융합교육연구센터 센터장 · 현 가치윤리AI허브센터 센터장 · 현 경기도교육청 학교폭력예방자문위원 · 현 통일부 통일교육위원 · 현 민주평화통일자문회의 자문위원 ▲주요 수상 · 세종도서 학술부문 우수도서 3회 선정 ― 『어린이 도덕교육의 새로운 관점』(2019, 공역), 『뇌 신경과학과 도덕교육』(2020), 『양심: 도덕적 직관의 기원』(2024, 역서) ▲주요 저서 · 『도덕적 AI와 인간 정서』(2025) · 『BCI와 AI 윤리』(2025) · 『질문으로 답을 찾는 인공지능 윤리 수업』(2025) · 『AI 윤리와 뇌신경과학 그리고 교육』(2024) · 『양심: 도덕적 직관의 기원』(2024) · 『도덕지능 수업』(2023) · 『뇌 신경과학과 도덕교육』(2020) · 『통일교육학: 그 이론과 실제』(2020) ▲연구 및 전문 분야 · 도덕·윤리교육, 신경윤리 기반 도덕교육 · AI 윤리 교육, 디지털 시민성 교육