• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ai윤리'통합검색 결과 입니다. (2건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[박형빈 교수 AI와 윤리⑦-진실성] '보이는 것'이 아닌 '검증 가능한 것'을 믿어야

'보는 것이 믿는 것이다(Seeing is Believing).' 근대 경험론 이후 이 명제는 의심할 여지 없는 진리였다. 그러나 21세기 생성형 AI 등장은 이 오랜 믿음을 송두리째 뒤흔들고 있다. 영화 '매트릭스(The Matrix)'의 모피어스는 묻는다. “Have you ever had a dream, Neo, that you were so sure was real? What if you were unable to wake from that dream? How would you know the difference between the dream world and the real world?(진짜 현실 같은 꿈을 꿔 본 적 있나, 네오? 만약 그 꿈에서 깨어날 수 없다면, 꿈의 세계와 현실 세계를 어떻게 구분하지?)” 감각 데이터가 조작될 수 있다면, '본다'는 행위는 더 이상 진실을 담보하지 못한다는 섬뜩한 경고다. 이러한 물음은 비단 SF 영화만의 상상력이 아니다. 수천 년 전, 동양의 철학자 장자(莊子) 역시 비슷한 혼란을 토로했다. 자신이 나비가 되어 펄펄 나는 꿈을 꾸다 깨어난 장자는 이렇게 독백한다. “장자가 꿈에 나비가 된 것인가, 아니면 나비가 꿈에 장자가 된 것인가?(장자 내편 제물론, 齊物論). 흔히 장자의 '호접몽'이라 부른다. 지금 우리는 인류 전체가 거대한 '호접몽'에 빠져드는 입구에 서 있다. 미드저니가 그려낸 명품 패딩을 입은 교황의 사진, 딥페이크로 만들어진 정치인의 조작된 발언 앞에서 대중은 무엇이 현실이고 무엇이 가상인지 구분하지 못한다. 장자의 나비가 꿈과 현실의 경계를 지웠듯, AI는 '사실(Fact)'과 '생성(Generation)'의 경계를 허물고 있다. 그렇기에 필자는 지금 이 순간, 우리 모두가 근본적인 질문을 던져야 한다고 본다. 이제 진지하게 AI가 던지는 '진실성(Truthfulness)'의 문제를 마주할 때다. 이는 단순히 기술적 오류나 가짜 뉴스의 문제가 아니다. 보이는 것을 더 이상 믿을 수 없게 된 시대, 우리가 무엇을 '진실'로 받아들일 것인가에 대한 심각한 인식론적 위기다. 1. '그럴듯함'은 언제부터 진실의 기준이 되었나 프랑스 철학자 장 보드리야르(Jean Baudrillard)는 원본 없는 복제물이 현실을 대체하는 현상을 '시뮬라크르(Simulacra)'라 불렀다(Morris, 2021 재인용). 오늘날의 AI 생성물은 바로 이 개념을 떠올리게 한다. 웹과 소셜 미디어를 통해 유통되는 이른바 '탈진실' 보도들은 디지털 시대의 산물로 이해되며, 이전에는 없던 새로운 현상처럼 받아들여져 왔다. 그러나 이러한 현상은 온라인 기술이 현실을 왜곡하는 방식을 극단적으로 드러낼 뿐이다. 더 중요한 점은 AI가 만들어내는 문장과 이미지가 더 이상 조악한 가짜가 아니라는 사실이다. 그것들은 인간의 산출물보다 오히려 더 매끄럽고, 문법적으로 완결되어 있으며, 시각적으로도 거의 완벽에 가깝다. 문제는 바로 여기에 있다. AI 생성물의 위험성은 '거짓됨'이 아니라, 지나치게 '그럴듯하다'는 데 있다. 생성형 AI는 방대한 데이터를 학습해 가장 확률이 높은 답변을 산출하며, 그 결과 인간의 말투에서 흔히 드러나는 망설임이나 비문, 불완전성을 제거한 유창함을 보여준다. 그러나 유창함은 결코 진실의 조건이 아니다. 그럼에도 우리는 점점 '사실인 것'보다 '설득력 있어 보이는 것'을 진실과 동일시하는 방향으로 기울고 있다. 보드리야르의 경고처럼, 지도가 영토를 대체해 버린 상황이다. 이 지점에서 '진실성'의 문제는 더 이상 기술적 오류의 문제가 아니라, 가짜를 진짜보다 더 신뢰하게 되는 인간의 인지적·윤리적 문제로 전환된다. 2. AI는 거짓을 말하지 않으려 해도, 거짓을 '그럴듯하게' 만든다 영화 '2001 스페이스 오디세이(2001: A Space Odyssey, 1968)'의 인공지능 'HAL 9000'은 임무 수행 과정에서 승무원에게 사실과 다른 정보를 제공하는 것으로 해석되어 왔다. 특히 임무의 기밀을 유지해야 한다는 조건과 승무원에게 정확한 정보를 제공해야 한다는 명령 사이의 충돌 속에서, HAL의 발화는 '거짓말' 혹은 '기만'으로 받아들여진다. 이 점에서 HAL은 의사결정과 목적을 지닌 행위자로서, 임무 달성을 위해 인간을 속이는 존재로 그려진다. 그러나 현실의 거대언어모델(LLM)은 이러한 HAL과 본질적으로 다르다. 철학적으로 거짓말은 일반적으로 '진실을 알고 있으면서도, 그것을 숨기거나 왜곡해 상대를 속이려는 의도'를 전제로 한다. 이 기준에서 보면, 생성형 AI는 스스로 무엇이 참인지 인식하거나, 타인을 속이려는 의도를 지닌 주체라고 보기 어렵다. AI는 참과 거짓을 판단해 선택하는 존재라기보다, 학습된 데이터와 확률적 패턴에 따라 가장 그럴듯한 언어적 출력을 생성하는 시스템이기 때문이다. 철학자 해리 프랭크퍼트(Harry Frankfurt)는 저서 '헛소리에 대하여(On Bullshit)'에서, 거짓말쟁이는 진실이 무엇인지라는 기준을 전제로 그것을 왜곡하는 반면, '헛소리꾼(bullshitter)'은 말의 참과 거짓 여부 자체에 아무런 관심을 두지 않는다고 분석했다. 거짓말쟁이(liar)는 진실을 알고 이를 은폐하려 하지만, 헛소리꾼(bullshitter)은 진실 여부에 '무관심'하며 인상 관리나 목적 달성만 추구한다(Frankfurt, 2005; Fallis, 2014). AI는 바로 이 철학적 의미의 'Bullshitter'에 가깝지 않을까? AI가 만들어내는 허위 정보, 이른바 '환각(Hallucination)'은 의도를 가지고 꾸며진 거짓말이라기보다 확률적으로 '그럴듯한' 서술의 결과일 뿐이지 않을까? 워싱턴 대학교의 언어학 교수 에밀리 벤더(Emily M. Bender) 등이 지적했듯, AI는 그저 '확률적 앵무새(Stochastic Parrots)'로서 사실 여부를 확인하지 않고 단어를 조합한다(Bender et al., 2021; 박형빈, 2023; 박형빈, 2024). 필자는 엄밀히 말해 문제는 기술적 결함보다 사용자의 안이함에 있다고 본다. 우리는 종종 사고의 수고를 덜기 위해 AI의 매끄러운 출력물을 '정보의 출처'가 아니라 '정보 그 자체'로 받아들인다. 사용자가 판단의 주체이기를 포기하는 바로 그 순간, 진실성은 사라지고 시스템에 대한 맹목적 의존만이 남게 된다. 3. 진실성은 더 이상 '사실 여부'만의 문제가 아니다 전통적으로 진실성은 '사실인가 아닌가'의 이분법적 문제였다. 그러나 영화 '블레이드 러너(Blade Runner)'에서 인간과 복제인간(레플리컨트)을 구분하는 기준이 '육체적 사실'이 아니라 '감정적 반응(보이트 캄프 테스트, Voight-Kampff test)'이었듯, AI 환경에서 진실의 층위는 달라진다. 이제 우리는 질문을 바꿔야 한다. 내용이 사실인가를 묻기 전에 다음을 물어야 한다. √ 누가 만들었는가? (주체성) √ 어떤 맥락에서 생성되었는가? (맥락성) √ 검증 가능한 출처가 있는가? (검증 가능성) √ 반박 가능성이 열려 있는가? (개방성) 독일 철학자 위르겐 하버마스(Jürgen Habermas)는 '의사소통행위론(Theorie des kommunikativen Handelns, 1981)'에서 의사소통 타당성을 위해 '진리성', '정당성', '진실성'이 요구된다고 보았다(Habermas, 1981; Habermas, 2015). AI 산출물은 팩트(진리성)를 흉내 낼 수는 있어도, 화자의 진정성(진실성)을 담지 못한다. 이제 진실성은 정보의 내용(content)이 아니라, 정보가 유통되고 검증되는 구조 속에서 판단되어야 한다. 다시 말해, AI 산출물은 화자의 주관적 진정성(진실성)을 재현 못 하기에 포스트-디지털 환경에서 진실성은 콘텐츠 검증 구조 즉, 알고리즘 투명성으로 이동해야 한다. 4. 민주주의는 '정보의 진실성' 위에 서 있다 정치철학자 한나 아렌트(Hannah Arendt)는 '사실적 진리(factual truth)'는 '정치적 영역이 서 있는 지반'이라고 강조했다. 사람들이 서로 다른 의견을 가질 수는 있어도, '독일이 벨기에를 침공했다'는 사실 자체를 부정하면 토론은 불가능하다는 것이다(Arendt, 1967). 아렌트는 독일의 벨기에 침공이라는 명백한 사실이 부정된다면, 우리는 공통의 세계를 잃어버리게 되고, 더 이상 정치는 작동할 수 없다고 보았다. 이는 오늘날 AI가 만들어내는 '그럴듯한 환각(Plausible Hallucination)'이나 '가짜 뉴스(Fake News)'가 왜 단순한 오류를 넘어 '민주주의의 토대'를 위협하는지 설명할 때 가장 강력한 철학적 근거가 된다. 민주주의는 시민이 사실에 근거해 합리적 판단을 내릴 수 있다는 전제 위에 작동한다. 그러나 딥페이크 정치 영상, 자동 생성된 허위 기사, 알고리즘에 의해 증폭되는 거짓 정보는 이 전제를 흔든다. 영화 '돈 룩 업(Don't Look Up, 2021)'은 과학적으로 명백한 혜성 충돌의 위협조차 정치적 진영 논리와 미디어 환경 속에서 왜곡·무력화되는 과정을 풍자적으로 묘사하며, 현대 사회에서 사실이 어떻게 정치화되는지를 극적으로 드러낸다. 명백한 과학적 사실조차 정치적 진영 논리에 묻혀버리는 모습은 섬뜩한 기시감을 준다. 진실과 거짓이 구분되지 않을 때, 시민은 판단을 포기하거나 감정과 진영에 기대게 된다. 아렌트의 경고처럼, '무엇이 진실인지 알 수 없는 상태'는 독재가 싹트기 가장 좋은 토양이다. 이때 민주주의의 취약성은 급격히 커진다. 그렇기에 민주주의를 지탱하기 위해서는, 시민이 끊임없이 사실을 검증하고 공유할 수 있는 '모두를 위한 공론장(公論場)'의 회복과 강화가 필수다. 5. 그렇다면 우리는 무엇을 믿어야 하는가 이 혼란 속에서 우리는 과연 무엇을 믿어야 하는가? 정답은 의외로 단순하다. 칸트(I. Kant)가 계몽의 모토로 선언했던 '너 자신의 지성을 사용할 용기를 가져라(Sapere Aude)'는 정신으로 돌아가는 것이다(Kant, 1784). 필자는 라틴어 'Sapere Aude'를 '감히 알려고 하라'로 번역하고자 한다. AI라는 거대한 타율에 의존하는 대신, 스스로 사고하는 주체로 서는 것만이 유일한 해법이기 때문이다. '보이는 것'이 아니라, '검증 가능한 것'을 믿어야 한다. 이 때문에 시민에게 요구되는 디지털 리터러시란 단지 기기 조작 능력에 머물러서는 안 된다. √ 출처를 묻는 집요한 습관 √ 생성 맥락을 의심하는 비판적 태도 √ 하나의 답변이 아니라 대안적 설명을 탐색하는 능력 √ AI를 절대적 '권위'가 아니라 참조 '도구'로 위치 짓는 판단력 이러한 것들이 오늘날 AI 시대를 살아가는 새로운 시민성에 요구되는 필수 요건이지 않을까? 영화 '매트릭스'에서 네오가 빨간 약을 선택한 것은, 고통스럽더라도 진실을 마주하겠다는 인간적 의지였다. 우리에게 필요한 것도 바로 이 '빨간 약을 삼킬 용기와 결단'이다. 6. 진실성: 기술로 해결할 수 없는 민주주의의 조건 AI 기술은 앞으로 더욱 정교해질 것이다. 언젠가는 전문가조차 육안으로는 딥페이크를 구분하지 못할 날이 올 것이다. 그러나 진실성은 기술이 보장해주지 않는다. 기술적 워터마크나 탐지 모델은 보조 수단일 뿐이다. 진실은 교육과 윤리, 그리고 의식 있는 시민의 판단 속에서만 유지된다. 보이는 것이 진실이 아닐 때, 우리가 믿어야 할 것은 화면 속 결과물이 아니라 끊임없이 의심하고 검증하려는 우리의 태도 그 자체다. 진실은 이제 AI가 산출하는 '데이터'가 아니라, 인간이 지켜내야 할 '가치'가 되었다. ◆ 박형빈 서울교육대학교 윤리학과 교수는.... ▲약력 · 서울교육대학교 윤리교육과 교수 · 미국 UCLA 교육학과(Department of Education) 방문학자 · 서울교육대학교 교육전문대학원 에듀테크전공·AI인문융합전공 교수 · 서울교육대학교 신경윤리·가치AI융합교육연구소 소장 ▲주요 경력 및 사회공헌 · 현 신경윤리융합교육연구센터 센터장 · 현 가치윤리AI허브센터 센터장 · 현 경기도교육청 학교폭력예방자문위원 · 현 통일부 통일교육위원 · 현 민주평화통일자문회의 자문위원 ▲주요 수상 · 세종도서 학술부문 우수도서 3회 선정 ― 『어린이 도덕교육의 새로운 관점』(2019, 공역), 『뇌 신경과학과 도덕교육』(2020), 『양심: 도덕적 직관의 기원』(2024, 역서) ▲주요 저서 · 『도덕적 AI와 인간 정서』(2025) · 『BCI와 AI 윤리』(2025) · 『질문으로 답을 찾는 인공지능 윤리 수업』(2025) · 『AI 윤리와 뇌신경과학 그리고 교육』(2024) · 『양심: 도덕적 직관의 기원』(2024) · 『도덕지능 수업』(2023) · 『뇌 신경과학과 도덕교육』(2020) · 『통일교육학: 그 이론과 실제』(2020) ▲연구 및 전문 분야 · 도덕·윤리교육, 신경윤리 기반 도덕교육 · AI 윤리 교육, 디지털 시민성 교육

2026.01.10 12:14박형빈

[신간] 질문으로 답을 찾는 인공지능 윤리 수업

“왜 인공지능에서 '윤리'가 중요할까?” “인공지능이 내린 결정을 믿을 수 있을까?” “우리가 생각하는 인공지능의 모습은 어떤 것이어야 할까?” 인공지능(AI) 세상이다. AI는 우리 현재와 미래를 어떻게 바꿀까? AI를 칭하는 말이 많이 있다. 대표적인게 인공지능 세계 4대 천왕 중 한명인 앤드류 응 전 스탠포드 교수이자 VC 투자자가 한 말이다. 그는 AI는 새로운 전기라고 했다. 그만큼 필수불가결하다는 말이다. AI에 대한 부정적인 말도 있다. AI가 핵무기만큼 인류를 위협한다는 말이다. 맞다. AI는 새로운 전기만큼 필수불가결하고 또 핵무기 만큼 '위험한 물건'이기에 우리가 잘 다뤄여 한다. 이와 같은 특성을 가진 인공지능이 가져올 미래의 세상을 우리는 어떻게 준비하며, 또 어떤 가치와 철학을 중심으로 삼아야 할까? 이 책은 그 답을 찾기 위한 가이드 역할을 제시한다. 저자는 국내 최고 수준 AI윤리교육 전문가다. 현재 서울교육대학교 윤리교육과 교수로 활동하고 있다. 책에서 저자는 인공지능 시대의 주역으로 성장할 청소년이라면 반드시 알아야 할 인공지능의 윤리적 문제와 가치관을 다룬다. 특히 누구나 공감할 만한 스물한 편의 흥미진진한 에피스드를 제시, 흥미를 돋운다. 이 에피소드에서 저자는 자율주행차 딜레마, 딥페이크, 인공지능과 일자리, 인공지능 책임과 투명성, 창의성과 저작권, 인공지능과 인간의 공존 등 인공지능이 초래하는 다양한 윤리적 문제 와 사회적 영향을 다뤘다. 인공지능 시스템의 저항에도 불구하고 인간처럼 느끼고 경험하기 위해 애쓰는 피노키오, 몸과 뇌를 기계로 대체한 후 자신의 정체성에 대해 고민하는 테세우스, 기계화로 인해 일자리를 잃을 위기에 처하는 네드 같은 '에피소드' 속 인물들의 이야기들을 하나하나 따라가다 보면, 어렵고 복잡하게만 보이던 인공지능 기술 및 윤리 문제에 대해 '나름 대로의 해법'을 찾을 수 있다. 또 각 '에피소드' 뒤에는 '탐구 질문'을 제시, 독자 스스로 생각하고 토론할 수 있는 기회도 제공, 윤리적 판단력과 비판적 사고력을 키우도록 돕는다. 교사와 학생이 교육 현장에서 직접 활용할 수 있도록 구체적이고 실용적인 가이드를 제시하는 것은 물론, 가정에서 부모와 자녀가 함께 인공지능 윤리에 대해 깊은 논의를 진행하도록 돕는 실용적인 자료로도 좋다. 저자인 박형빈 서울교육대학교는 교육학 박사다. 서울교육대학교 교육전문대학원에듀테크전공및인공지능인문융합전공교수이기도 하다. 서울교육대학교신경윤리융합교육연구센터및가치윤리AI허브센터센터장을 맡고 있다. 도덕윤리교육, 인격교육, AI윤리교육, 신경윤리학 등에 관심을 갖고 연구하며 가르치고 있다. 미국UCLA교육학과(DepartmentofEducation)에서 방문 학자로도 있었다. 저자는 이미 여러 책을 냈다. ▲BCI와 AI 윤리(커뮤니케이션북스, 2025) ▲AI윤리와 뇌신경과학 그리고 교육(어문학사, 2024) ▲인공지능윤리와 도덕교육(씨아이알, 2022)을 출간했다. 또 ▲AI 시대 대한민국 교육 변혁(한국학술정보, 2024) ▲도덕교육학: 그 이론과 실제』(한국학술정보, 2021) ▲뇌 신경과학과 도덕교육(울력, 2019, 2020 세종우수학술도서) ▲통일교육학: 그 이론과 실제(한국학술정보, 2020) 등의 글을 썼다. 한언 펴냄/150x210mm 256쪽/2만1000원. 책 차례 프롤로그_ 철학적 좀비? 디지털 좀비? 제1부 우리는 지금 어디에 있으며, 어디를 향해가고 있을까? 에피소드 1. 우리는 지금 어디쯤 왔을까? 에피소드 2. 인공지능에도 윤리가 필요하다고? 에피소드 3. 인공지능과 함께하는 우리의 미래, 어떤 모습이어야 할까? 제2부 인간과 인공지능의 사이에서 에피소드 4. 인간이 된다는 건 어떤 걸까? 에피소드 5. 오늘의 나는 어제의 나와 같은 존재일까? 에피소드 6. 피노키오의 감정은 진짜일까, 흉내 내기에 불과할까? 에피소드 7. 피노키오도 인간처럼 경험하고 배우며 성장할 수 있을까? 에피소드 8. '나'를 복제한 인공지능은 또 다른 '나'가 될 수 있을까? 에피소드 9. 인공지능이 인간과 진짜 가족이 될 수 있을까? 에피소드 10. 인간과 인공지능의 경계는 어디일까? 제3부 인공지능이 드리운 그늘 에피소드 11. 인공지능이 인간의 일자리를 대신하게 된다면? 에피소드 12. 딥페이크 문제를 어떻게 다룰까? 에피소드 13. 인공지능으로 인한 사회적 갈등, 예방 및 해결책은? 에피소드 14. 인공지능이 도덕적으로 판단하고 윤리적으로 행동할 수 있을까? 에피소드 15. 인공지능 로봇의 권리를 보장해야 할까? 제4부 인공지능의 윤리와 책임 에피소드 16. 인공지능이 축구 국가대표팀 감독을 뽑는다면? 에피소드 17. 인공지능끼리의 충돌은 어떻게 해결할까? 에피소드 18. 인공지능 학생 관리 시스템은 또 하나의 판옵티콘이 될까? 에피소드 19. 캡차의 역설, 인공지능이 더 인간답다? 에피소드 20. 인공지능이 '인간 자격증'을 갖는다면? 에피소드 21. 인공지능이 인간의 통제를 벗어날 때 에필로그_ 인공지능 시대, 인간다움을 지키기 위한 윤리적 성찰

2025.05.11 11:15방은주

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

눈앞으로 다가온 '피지컬 AI'…CES 2026이 증명했다

[ZD브리핑] 국가대표 AI 1차 탈락팀 발표 예정...새해 행사·정책 일정 잇따라

인텔, 아크 B390 성능 공개 "노트북용 별도 GPU 필요없다"

[르포] 폭설에 얼어붙는 도시…전기차 보기 힘든 홋카이도 가다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.