KAILA, 'AI 리터러시 글로벌 컨퍼런스 2025' 성료
한국AI리터러시협회(KAILA)가 판교 스타트업캠퍼스에서 'AI 리터러시 글로벌 컨퍼런스 2025'를 열고 윤리와 책임을 기반으로 한 AI 활용을 국가 경쟁력 과제로 논의했다. 한국AI리터러시협회는 이번 컨퍼런스가 교육자, 공무원, 기업 실무자, 연구자 등 다양한 현장 전문가 200여명이 참여한 가운데 AI 리터러시를 전면에 내세운 행사로 치러졌다고 10일 밝혔다. 이번 행사는 단순 기술 동향 소개가 아니라 교육과 산업 현장에서 AI를 어떻게 책임 있게 활용할 것인지 사회적 신뢰를 훼손하지 않는 기준을 어떻게 세울 것인지에 초점을 맞춰 진행됬다. 기조발제를 맡은 이선종 KAILA 회장은 'AI 시대 개인의 경쟁력'을 주제로 AI 리터러시의 필요성을 강조했다. 이 회장은 "AI는 단순 도구가 아니라 인간의 판단과 사회적 신뢰를 직접적으로 흔드는 기술"이라며 "윤리와 법, 비판적 이해를 기반으로 한 AI 리터러시는 교육현장은 물론 기업 환경에 내재된 실체적인 위험요소이며 시급한 과제"라고 지적했다. 그특히 학교와 기업 모두에서 '편리하니까 일단 쓰고 보자'는 태도에서 벗어나, 리스크를 이해하고 책임 있는 활용 원칙을 세우는 일이 급선무라고 강조했다. 해외 기관의 참여도 눈길을 끌었다. 싱가포르 디지털 에듀케이션 의회(DEC) 대니 비엘릭 회장은 영상 연설을 통해 "AI 리터러시는 글로벌 차원의 공동 과제이며 한국 KAILA의 활동이 중요한 기여가 될 것"이라고 말했다. 호주 AI 리터러시 랩의 더글러스 이커설 박사는 해외 교육 현장에서의 AI 활용 사례와 리터러시 모델을 소개하며, 교사와 학생이 실제 수업 속에서 어떻게 AI 도구를 이해하고 비판적으로 사용하는지 구체적인 실천 사례를 공유했다. 국내 연구 결과도 발표됐다. 한국청소년정책연구원 이창동 선임연구원은 전국 청소년 6천700명을 대상으로 진행한 AI 리터러시 실태 조사 결과를 공개했다. 조사에 따르면 청소년들은 챗봇, 이미지 생성기 등 AI 도구를 활발히 사용하고 있지만 저작권 침해, 개인정보 노출, 허위 정보 생성 등 위험에 대한 인식은 상대적으로 낮은 것으로 나타났다. 이 연구원은 "AI 활용 능력과 위험 인식 사이의 격차가 커질수록 부정행위, 사이버 괴롭힘, 허위 정보 확산과 같은 문제가 심화될 수 있다"며 청소년 대상 체계적인 AI 리터러시 교육의 필요성을 강조했다. AWS, 대학, 산업계, AI 윤리 전문가가 참여한 패널토론에서는 최근 사회 현장에서 나타나는 구체적인 문제들이 논의됐다. 패널들은 대학 과제와 시험에서의 AI 활용이 어디까지 허용돼야 하는지, 기업 내부 정보가 생성형 AI 도구를 통해 외부로 유출될 수 있는 가능성, 프라이버시 침해와 감시 강화 우려, 업무·학습 현장에서의 AI 도구 오남용 등 사례를 짚었다. 이어 규제 중심 접근을 넘어, 기관·기업·학교가 스스로 지킬 수 있는 '실효성 있는 AI 활용 기준'과 내부 가이드라인 마련이 시급하다고 입을 모았다. KAILA는 이번 컨퍼런스를 계기로 교육계와 산업계를 아우르는 AI 리터러시 프레임워크를 정교화하고, 기업을 대상으로 한 윤리적 AI 활용 세미나와 국제 협력 사업을 확대할 계획이다. 협회는 오는 2025년 상반기에는 'AI 리터러시'를 공식 출간하고, 교강사 양성 과정과 공공기관·기업 대상 AI 리터러시 진단 프로그램도 본격화한다는 구상이다. 행사 당일 선착순 100명에게 제공된 신간는 현장에서 높은 관심을 받으며, 교육·기업 현장의 실무 지침서로 자리매김할 가능성을 보여줬다는 평가다. 이선종 회장은 "오늘의 논의는 결론이 아니라 출발점"이라며 "한국 사회가 AI 시대의 새로운 기준을 세우는 데 KAILA가 지속적으로 역할을 하겠다"고 말했다. 그는 앞으로도 국내외 기관과 협력해 AI 리터러시 교육과 진단, 정책 제안을 병행하며, 윤리와 책임을 기반으로 한 AI 활용 문화를 확산하겠다고 밝혔다.