• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'윤리 AI'통합검색 결과 입니다. (30건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

과기정통부-AI 안전연구소, AI 주도권 전략 공개…"산업·리스크 동시 대응"

인공지능(AI) 기술이 국가 전략의 중심축으로 부상한 가운데 정부기관이 기술 리스크와 산업 경쟁력 양면을 짚는 자리가 마련됐다. AI 인프라 확충과 인재 육성에 나선 정부, 기술 신뢰성과 안전 기준을 제시한 연구기관 모두 '위험 관리'를 전제로 한 성장 전략에 공감대를 드러냈다. 국제인공지능윤리협회(IAAE)는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC)' 컨퍼런스를 개최했다. 이날 행사에는 과학기술정보통신부(과기정통부)와 AI 안전연구소를 비롯해 LG유플러스, 주요 스타트업 등 공공과 민간 주요 주체들이 참여했다. 이날 공공부문 발표에서는 공진호 과학기술정보통신부 인공지능기반정책과장이 정부의 AI 육성 전략과 인프라 투자 방향을 설명했다. 이어 김명주 AI 안전연구소장이 기술 리스크 분류 체계와 글로벌 안전 기준 정립의 필요성을 짚었다. 과기부 "GPU·인재·모델 3축 강화…1.9조로 산업기반 재편할 것" 이날 '대한민국의 AI 정책 대응'을 주제로 발표에 나선 공진호 과학기술정보통신부(과기정통부) 인공지능기반정책과장은 글로벌 경쟁 환경에서 한국이 직면한 현실과 정부의 대응 전략을 짚었다. 공 과장은 발표 서두에서 딥시크 등장 이후 AI 패권 경쟁이 새로운 국면으로 접어들었다고 진단했다. 미국의 '스타게이트' 프로젝트, 유럽연합(EU)과 프랑스의 대규모 투자 발표, 중국의 기술 진보 등을 언급하며 글로벌 주도권 경쟁이 양적 확대를 넘어 질적 전환기에 접어들었다고 분석했다. 그는 "한국의 현주소를 두고 보면 미국과 중국 등 선도국과는 여전히 격차가 존재한다"면서도 "자체 모델 개발 수, 특허와 논문 성과 등을 고려할 때 싱가포르, 이스라엘, 프랑스 등과 함께 3위권 수준의 경쟁력은 확보하고 있다"고 평가했다. 이 격차를 좁히기 위한 첫 번째 대응으로 정부는 AI 컴퓨팅 인프라 확충에 나선다. 광주 AI 데이터센터를 중심으로 엔비디아 'H100' 그래픽처리장치(GPU) 416장을 확보해 임대 공급할 예정이며 민간 클라우드 자원까지 동원해 연내 총 1만 장 이상을 확보하겠다는 계획이다. 정부는 국산 AI 반도체 생태계 구축에도 힘을 싣는다. 퓨리오사, 리벨리온 등 국내 기업 중심으로 실증 프로젝트를 추진해 오는 2030년까지 국산 반도체 활용 비중을 절반 이상으로 끌어올리겠다는 목표다. 이와 함께 AI 인프라 투자에 대한 세제 혜택도 대폭 확대된다. 또다른 축은 차세대 모델 개발이다. '월드 베스트 거대언어모델(LLM)' 프로젝트를 통해 경쟁력 있는 팀을 선발하고 여기에 GPU, 데이터, 인재 등 핵심 자원을 집중 투입한다. 3년 내 글로벌 상위권 LLM을 확보한다는 목표다. 이와 연계해 AI 챌린지도 개최된다. 고급 인재 확보를 위한 전략도 제시됐다. 뉴욕대와 협력해 만든 '글로벌 프런티어 랩'을 시작으로 유럽과 중동으로 거점을 확대하고 실무형 인재 양성을 위한 이노베이션 아카데미와 AI 융합대학원 설립도 추진된다. 해외 우수 인재 유치를 위한 인센티브 설계도 병행된다. 산업 전환 지원도 주요 정책 중 하나다. 제조, 의료, 법률, 문화 등 다양한 분야에서 공공수요를 기반으로 AI 도입을 촉진하고 수요기업과 공급기업의 매칭을 통해 생태계를 활성화한다는 구상이다. 이를 위해 여러 부처와 공동으로 대규모 플래그십 프로젝트도 준비 중이다. 1조9천억원 규모의 AI 추경 예산에 대한 세부 집행 계획도 공개됐다. GPU 확보에 1조6천억원, 반도체 실증에 900억원, 정예팀 LLM 지원에 2천억원, 인재 육성 프로그램에 400억원, 벤처 캐피털(VC) 연계 펀드에 1천억원 등으로 세부 배분이 이뤄진다. 공진호 과기정통부 과장은 발표를 마치며 "내년에 시행되는 AI 기본법은 산업 진흥과 신뢰 확보를 균형 있게 담은 법안"이라며 "고영향 AI에 대한 고지 의무와 사업자 책임 등을 중심으로 한 규제 조항은 하위 법령에서 구체화될 예정"이라고 밝혔다. 이어 "업계 부담 최소화를 최우선으로 법령 설계를 진행 중"이라고 강조했다. AI 안전연구소 "AI 리스크 해소는 경쟁력…英과 보안 협력 확대한다" 이어 발표에 나선 김명주 AI 안전연구소장은 AI 기술의 위험성과 이를 둘러싼 국제적 대응 흐름을 짚으며 기술 안전성과 사회적 신뢰 확보의 필요성을 강조했다. 그는 AI 위험을 단순한 규제 이슈가 아닌 '글로벌 경쟁력의 조건'으로 봐야 한다고 봤다. 김 소장은 '챗GPT' 등장 이후 AI 기술의 파급력이 전통적 거대 기업의 질서를 뒤흔든 과정을 되짚으며 발표를 시작했다. 오픈AI가 만든 기술이 구글의 검색 패러다임을 위협한 사례를 통해 예측 불가능한 기술 변화가 산업과 정책의 균형을 흔들 수 있음을 경고했다. AI 시스템의 잠재적 리스크에 대한 국제적 분류 기준도 소개됐다. 김 소장에 따르면 EU는 시스템 위험 수준에 따라 AI를 구분하고 있으며 특히 'GPT-4' 수준의 고성능 모델은 '시스템 리스크'로 분류된다는 점에서 제도적 대응이 시급하다 그는 영국, 미국, MIT 등 주요 기관들의 리스크 정의도 언급했다. 단순한 기술적 오류를 넘어서 악용 리스크, 사회적 불평등 심화 등 다차원적 위험 요소가 존재하며 AI 리스크는 정량적 분석과 경험 기반 데이터 축적을 통해 관리돼야 한다는 것이다. 김 소장은 "우리 연구소 역시 '리스크 맵'을 구축하는 작업을 시행하고 있다"며 "MIT와 협업해 축적한 1천700여 개 사례를 기반으로, 기술·의도·사고 시점에 따른 분류 체계를 수립 중이며 이를 통해 구체적인 평가 도구와 안전 보고서를 생산하고 있다"고 설명했다. AI 평가 방식에 대해서도 언급됐다. 연구소는 물리적 제품, 임베디드 모델, 챗봇 등 다양한 형태의 AI에 대해 실제 사용 맥락에서 리스크를 분석하고 전담 인력이 결과를 검토하거나 AI 기반 평가 도구로 통합 평가를 수행하는 체계를 갖추고 있다. 특히 외국계 모델에 대한 검증 사례도 소개됐다. 중국 딥시크의 정치적 편향 사례를 예로 들어 불완전한 AI를 활용할 경우 발생할 수 있는 오용 가능성과 편향 전파 리스크를 지적하고 이를 중화시키는 파인튜닝 기법 등을 연구소가 제공하고 있다고 밝혔다. 이 과정에서 AI 개발사와 협약을 맺고 기밀 유지 하에 평가를 진행한다. 김 소장은 "우리는 '규제자'가 아닌 '조력자'로서의 역할을 수행한다"며 "국내 기업이 글로벌 수준의 안전 기준을 갖추고 기술 수출 경쟁력을 확보할 수 있도록 지원하는 기능에 방점을 찍었다"고 말했다. 향후 역할 확대 가능성에 대해서도 입장을 밝혔다. 영국 AI안전연구소처럼 '보안'과 '안보' 기능까지 포괄할지에 대한 기자의 질문에 김명주 AI 안전연구소장은 "지난번 파리 정상회담에서 영국 AI 안전연구소 측과 만나 들은 바에 따르면 이 조직도 인력 부족을 겪어 선택과 집중 중"이라며 "우리는 일단 안전이 가장 포괄적 개념으로, 명칭과 구조는 유지할 예정"이라고 말했다. 이어 "영국과 보안 분야 전략적 협력 추진 중으로, 내부적으로도 관련 인력 보강과 기능 확대를 계획하고 있다"고 밝혔다.

2025.05.27 17:21조이환

[현장] "AI 도입, 기술만큼 신뢰·안전도 중요"…기업이 갖춰야 할 조건은?

국내 인공지능(AI) 기업들이 생성형 AI 도입에 있어 기술만큼이나 신뢰성과 안전성을 우선 과제로 제시했다. 국제인공지능윤리협회(IAAE)는 27일 서울 삼성동 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC) 컨퍼런스'를 개최했다. '변화하는 AI 환경에서의 기업 경쟁력 확보'를 주제로 열린 이번 행사에는 셀렉트스타, LG유플러스, 원티드랩, AI3 등 공공·민간 주요 조직들이 참여했다. 이날 황민영 셀렉트스타 부대표는 생성형 인공지능(AI)을 도입할 때 핵심은 기술력 자체보다 신뢰성과 안전성을 정량적으로 평가하고 관리할 수 있는 체계를 갖추는 데 있다고 강조했다. 특히 산업 특성과 조직의 정책에 맞춘 맞춤형 벤치마크와 '레드팀' 검증이 도입 여부를 좌우하는 만큼, 단순한 모델 성능보다 사전 평가 체계의 구축이 더 시급하다고 진단했다. 황 부대표는 LLM 평가 방식으로 크게 세 가지 접근법을 제시했다. 객관식 기반의 벤치마크인 '자동평가', 사람이 직접 점수를 매기는 '휴먼 평가', 모델이 다른 모델을 평가하는 LLM 기반 평가다. 현업에서는 이 세 방식을 혼합해 쓰고 있으며 시험지처럼 만드는 벤치마크는 빠르고 효율적이고 LLM 평가는 반복 작업을 대체하는 수단으로 유용하다. 또 그는 기업의 도입 결정에서 신뢰성 문제로 LLM을 도입하지 못하는 경우가 빈번하다는 점을 지적했다. 대기업 챗봇이 경쟁사 제품을 추천한 사례나 해외 항공사 챗봇이 잘못된 가격 정보를 안내해 법적 책임을 지게 된 사례처럼 잘못된 출력으로 인한 금전적·법적 손해가 현실화되고 있다는 것이다. 이같은 문제를 해결하려면 도입 전 신뢰성 검증 체계가 필수적이라는 게 황 부대표의 판단이다. 기업별 정책과 업무 목적에 따라 정확성·정책 적합성·유해성 등 다양한 기준을 사전에 마련하고 반복 검증을 통해 모델의 응답 수준을 평가해야 한다는 것이다. 여기에 더해 위장된 질문을 활용해 잠재적 위험 발화를 사전에 탐지하는 '레드팀' 방식의 검증도 병행해야 한다. 셀렉트스타는 지난 2018년 설립된 이후 이 같은 과제를 해결하기 위해 평가 데이터셋 구축, 레드팀 챌린지 운영, 맞춤형 테스트 설계 등을 수행해 왔다. 최근에는 자동화 솔루션 '다투모 이밸(DATUMO eval)'을 통해 기업별 LLM을 체계적으로 검증하고 있다. 황민영 셀렉트스타 부대표는 "AI가 답변을 잘 요약했는지, 정책을 따랐는지, 위험한 말을 했는지를 평가할 수 있는 기준과 매트릭스를 기업 스스로 구성해야 한다"며 "생성형 AI 도입은 더 이상 기술이 아닌 책임과 평가의 문제로 넘어갔다"고 덧붙였다. 이날 또다른 발표를 진행한 주형민 원티드랩 AX사업 총괄은 생성형 AI 도입은 기술이 아닌 통제와 책임의 문제라고 강조했다. 기술보다 조직 구조, 거버넌스 체계 정비가 우선이라는 주장이다. 주 총괄은 최근 기업들이 AI를 주요 업무에 활용하면서 에이전트 기반의 구조로 급속히 전환하고 있다고 밝혔다. 이 과정에서 오류가 누적될 경우 전체 시스템 신뢰도를 갉아먹을 수 있다고 경고했다. 그는 "복수 에이전트의 조합은 작은 오류도 누적되면 전체 리스크로 이어진다"며 "기술 성능보다 중요한 건 데이터 흐름 추적과 운영 통제"라고 강조했다. 원티드랩은 이를 반영해 에이전트 통계, 요금 통제, 사용 이력 관리 등 통제 기능을 자체 플랫폼에 구축한 상태다. 특히 민감정보 대응과 내부 사용 통제를 핵심 기능으로 삼았다. 주형민 총괄은 "AI 전담조직도 역할을 바꿔야 한다"며 "AI는 누구나 쓸 수 있어야 하며 구조가 이를 뒷받침해야 한다"고 강조했다. 이어 발표를 진행한 한영섭 LG유플러스 AI테크랩장은 AI 확산 논의가 생산성과 효율에 치우쳐 있다며 안전과 신뢰에 대한 논의가 병행돼야 한다고 강조했다. 한 테크랩장은 "AI가 실제로 도움이 되려면 먼저 안심하고 쓸 수 있어야 한다"고 말했다. 이같은 목표를 달성하기 위해 LG유플러스는 '어슈어드 인텔리전스'를 핵심 전략으로 제시했다. AI가 만든 음성을 판별해 보이스피싱 등 음성 기반 범죄를 차단하는 '안티 디보이스', 통화 내용을 서버로 전송하지 않고 기기 내에서만 처리하는 '온디바이스 LLM', 양자암호 기반의 통신 보안 기술이 그 축이다. 이 전략이 적용된 대표 서비스가 통화 에이전트 '익시오(XiO)'다. 스팸 응답, 음성 분석, 보이스피싱 탐지 기능을 AI가 수행하지만 개인정보는 모두 단말기 안에서만 처리된다. 또 AI가 생성한 텍스트나 음성, URL 링크를 탐지해 위험 여부를 사전에 차단하는 기능도 함께 개발 중이다. 한 단장은 "AI의 위협을 AI로 막는 구조가 필요하다"며 "기술적 대응은 매우 중요하다"고 역설했다. LG유플러스는 그룹 AI 연구원과 협력해 자체 LLM '익시젠(XiGen)'도 운영 중이다. 기존 엑사원 모델을 기반으로 산업별 도메인에 특화한 경량 LLM을 개발하고 있으며 스마트폰 등 디바이스 탑재를 목표로 상용화를 추진 중이다. 한영섭 AI테크랩장은 "AI가 만든 콘텐츠를 알아채지 못하는 상황이 곧 현실이 될 것"이라며 "AI의 확산과 함께 신뢰 체계를 구축하는 것도 기업의 책임"이라고 말했다.

2025.05.27 15:46조이환

[현장] IAAE, AI 윤리 산업 컨퍼런스 개최…"기업, 안전 확보해야 경쟁력 따른다"

국제인공지능윤리협회(IAAE)가 기업 경쟁력 관점에서 인공지능(AI) 윤리를 조망하는 만남의 장을 열었다. 빅테크부터 스타트업, 공공기관까지 AI 시대의 생존 전략을 재정립하기 위해서다. IAAE는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC)' 컨퍼런스를 개최했다. 이번 행사는 내년 시행 예정인 AI 기본법을 앞두고 마련됐으며 과학기술정보통신부, AI 안전연구소(AISI), LG유플러스 및 주요 스타트업 등이 참여했다. 행사 주제는 '변화하는 AI 환경에서의 기업 경쟁력 확보'로, 단순한 법제 논의를 넘어 산업 현장의 실제 이슈를 다루는 데 초점이 맞춰졌다. 빅테크와 공공의 'AI 안전' 접근 방식이 충돌하는 상황에서 비영리 윤리기관이 조정자로 나섰다는 점에서 주목된다. 행사 운영은 테크 스타트업 PR 전문 에이전시인 팀쿠키가 맡았으며 프로그램은 공개 패널토론과 현장 사례 중심으로 구성됐다. 전창배 국제인공지능윤리협회 이사장은 이날 개회사를 통해 AI 기술과 산업 진흥이 차기 대통령 선거의 주요 공약으로 떠오른 상황에서 대부분 후보들이 'AI 강국'을 지향하고 있다는 점에 주목했다. 다만 기술 투자에 대한 공감대와 달리 AI 윤리와 안전에 대한 논의는 여전히 부족하다고 지적했다. 전 이사장은 "기술 투자에 반대할 사람은 없지만 윤리와 안전이 뒷받침되지 않으면 글로벌 시장에서 우리 경쟁력이 진정으로 인정받기 어렵다"며 "기술과 윤리는 어느 하나를 우열로 나눌 수 없는 문제"라고 강조했다. 그는 오픈AI, 구글, 앤트로픽 등 주요 글로벌 기업들이 AI 제품 출시 전 윤리 검증과 가치 정렬, 품질 검사를 철저히 거치는 사례를 언급하며 기술만 앞세운 접근 방식은 더 이상 유효하지 않다고 판단했다. 이어 올해 초 제정된 AI 기본법이 내년 1월부터 시행되는 만큼 정책의 실제 이행 여부가 기업 경쟁력에 직결될 것이라고 봤다. 전창배 IAAE 이사장은 "선거 이후 어떤 후보가 당선되더라도 AI 기본법의 원칙을 구체적 정책으로 연결해야 한다"며 "이번 행사가 정부와 산업계 모두에게 실질적 방향성을 제공하는 계기가 되기를 바란다"고 말했다. 이어 환영사를 진행한 임기태 팀쿠키 부대표는 지난해에 이어 올해도 행사를 후원한 이유에 대해 설명했다. 그는 협업을 통해 AI의 강력한 가능성을 직접 체감했고 그 과정에서 기술의 사회적 책임에 대한 고민도 깊어졌다고 밝혔다. 임 부대표는 "신뢰할 수 있는 AI란 무엇인가, 안전하면서도 유용한 AI를 구현하려면 어떤 원칙이 필요한가에 대한 논의의 장이 필요하다고 판단했다"며 "기술을 만드는 분들과 정책을 설계하는 분들 모두가 지속 가능한 AI에 대해 입체적이고 실질적인 이야기를 나누는 자리가 되길 바란다"고 말했다. 더불어 그는 팀쿠키가 IAAE와 업무협약을 체결하며 산업과 윤리 사이의 가교 역할을 자처해 왔다고 설명했다. 이번 컨퍼런스 역시 이 연장선에서 민간-공공, 기업과 학계가 머리를 맞대는 공동 논의의 장으로 기획됐다고 덧붙였다. 임기태 팀쿠키 부대표는 "공공, 기업, 학계 전문가들이 한자리에 모인 만큼 귀중한 인사이트를 나누고 건설적인 이정표를 함께 만들어나가는 계기가 되길 기원한다"고 강조했다.

2025.05.27 11:08조이환

디지털 클론, 광고의 미래인가 위험의 서막인가

AI가 만들어낸 가상의 인물, 이른바 '디지털 클론'이 실제 인간과 구분하기 어려울 정도로 정교해지고 있다. 최근에는 정치적 목적이나 기업 마케팅 전략에도 점점 더 널리 활용되고 있는데, 특히 패션 산업에서 디지털 클론의 활용이 빠르게 확산되고 있다. 이에 경영 전략 전문가 루아나 카르카노 씨는 그 장점과 문제점을 분석했다. 컨버세이션닷컴 외신 보도에 따르면, 패션 업계는 '디지털 클론'이 가장 활발히 활동 중인 분야 중 하나다. 패션 트렌드는 인플루언서를 통해 확산되는 경우가 많은데, 글로벌 인플루언서 시장 규모는 2025년까지 약 320억 달러(한화 약 43.7조원) 이상 성장할 전망이다. 하지만 실제 인플루언서와 협업하려면 시간과 비용이 많이 들기 때문에 브랜드 전용 디지털 클론을 제작해 홍보에 활용하면 비용을 절감하면서도 캠페인을 유연하게 운영할 수 있다. 실제로 글로벌 패션 브랜드 H&M은 올 3월, 자사 마케팅 캠페인과 소셜네트워크(SNS) 콘텐츠에 사용할 '디지털 모델 클론'을 제작할 계획을 발표했다. 이 디지털 클론은 완전히 가상의 인물이 아니라, 실제 모델의 외형을 기반으로 만들어졌다. 해당 모델은 디지털 클론의 초상권을 보유하고 있으며, 그에 따른 사용료를 받는 조건으로 계약됐다. H&M의 최고 크리에이티브 책임자 요르겐 앤더슨은 "우리는 개인의 스타일을 존중하면서도, 새로운 크리에이티브 방식으로 패션을 표현하고자 한다"면서 "신기술의 장점을 적극적으로 받아들이고 있다"고 밝혔다. H&M은 이 기술을 통해 촬영 비용을 줄이고, 카탈로그 제작 속도도 높일 수 있다고 설명했다. 하지만 한편으로는 모델, 메이크업 아티스트, 사진가 등 기존 인력의 일자리를 대체할 수 있어, 업계 전반에서 윤리적 우려와 논쟁도 커지고 있다. 카르카노 씨는 디지털 클론 사용에서 가장 중요한 이슈로 '동의'와 '보상'을 강조했다. H&M처럼 사전 계약을 통해 제작되는 경우도 있지만, 일부 기업이나 개인은 원래 인물의 얼굴이나 이미지 데이터를 무단으로 학습시켜 디지털 클론을 만들어내는 사례도 있어 문제가 되고 있다. 또 다른 문제는 다양성이다. AI는 매개변수를 조절해 다양한 인종, 연령, 체형의 인물을 만들어낼 수 있지만, 학습된 데이터에 따라 편향이 반영될 위험도 크다. AI가 다양성을 '연출'할 수는 있지만, 그럼에도 중대한 편견이 포함될 수 있다는 지적이다. 카르카노 씨는 디지털 클론이 패스트 패션 브랜드에게는 다양한 체형과 스타일을 표현할 수 있는 유용한 도구가 될 수 있지만, 윤리적 문제를 해결하려면 '투명성'이 무엇보다 중요하다고 강조했다. 사용자의 동의, 명확한 권한 부여, 그리고 개인정보와 초상권 보호를 위한 법적 기준이 마련돼야 한다는 주장이다. 그는 마지막으로 “브랜드가 AI 기술로 창의성을 높이기 위해서는 성실성, 포괄성, 법적 책임을 아우르는 윤리적 프레임워크를 도입해야 한다”고 강조했다.

2025.05.25 08:58백봉삼

[현장] "국제 AI 윤리 표준 만든다"…서울대, '제트인스펙션 컨퍼런스' 개최

서울대학교가 신뢰할 수 있는 인공지능(AI)을 주제로 국제 컨퍼런스를 열고 각국 전문가들과 윤리적 AI 개발 방향을 논의에 나섰다. 책임 있는 기술 활용을 위한 글로벌 연대와 한국 내 자율적 거버넌스 모델 구축이 주요 의제로 떠올랐다. 서울대학교 데이터사이언스 대학원은 20일 '제3회 제트인스펙션(Z-Inspection)' 국제 컨퍼런스를 관악구 서울대학교 호암교수회관에서 개최했다. 이틀 일정으로 열리는 이번 행사는 서울대 데이터사이언스대학원이 주관하고 독일계 글로벌 제약·소재 기업 머크(Merck), 제트인스펙션(Z-Inspection) 이니셔티브, 서울대 신뢰할 수 있는 AI 연구실이 협력해 운영한다. 서울대 교수진과 유럽 연구진을 포함해 약 50명의 윤리·의료·기술·법 전문가가 참석했다. 제트인스펙션은 AI 시스템이 실제 사회에 적용될 때 발생하는 위험과 긴장을 다학제적 방식으로 점검하는 절차 중심의 국제 평가 프로그램이다. 유럽연합(EU)의 AI 윤리 프레임워크를 기반으로 의료, 공공, 금융 등 각 분야 실사용 사례를 검토하고 윤리적 충돌 지점을 사전에 탐색하는 것이 핵심이다. 국내에서는 지난 3월 EU AI법을 참고한 '인공지능 개발 및 신뢰 기반 조성에 관한 기본법(AI기본법)'을 세계 두 번째로 입법했다. 이에 따라 국내에서도 윤리적 AI 기술에 대한 제도적·자율적 평가 수요가 증가하는 가운데 이번 회의는 제트인스펙션 프로그램의 실제 적용 가능성과 제도 밖 자율검증 모델을 공유하는 자리로 마련됐다. 이번 행사를 주도한 로베르토 지카리 서울대 초빙교수는 "AI는 그 자체로 선하거나 악하지 않으며 어떻게 쓰느냐에 달렸다"며 "정치적 이유로 규제가 지연되는 나라일수록 오히려 병원이나 기관들이 자발적으로 윤리 점검에 나설 기회가 된다"고 말했다. "윤리 없는 데이터, 기업 생존도 없다"…머크, 신뢰 기반 AI 전략 공개 이날 처음으로 발표를 맡은 장 앤노 샤르통 머크 디지털윤리·생명윤리 책임자는 회사 내부 윤리 프레임워크를 직접 소개하며 신뢰 기반 거버넌스의 필요성을 구체적으로 설명했다. 샤르통 책임자에 따르면 AI 윤리는 기업의 사업 전략 중심에 있어야 한다. AI 기술이 실제 고객과 내부 임직원에게 어떻게 수용되는지를 면밀히 점검하지 않으면 장기적으로 시장에서 신뢰를 잃게 된다는 것으로, 기술의 가능성보다 그 사용 방식이 더 중요하다는 설명이다. 이에 따라 머크는 현재 AI와 데이터 프로젝트에 대해 별도의 디지털 윤리 행동강령을 운영 중이다. 이 강령은 자율성, 투명성, 비편향성, 공정성, 혜택 극대화 등 다섯 가지 윤리 원칙에 기반하며 내부 윤리 자문단과 외부 독립 전문가 패널이 각 프로젝트를 평가하는 구조다. 이를 위해 회사는 자체 개발한 '위험 원칙 평가도구'를 활용한다. 프로젝트별로 윤리 민감도를 수치화해 사전 진단하고 위험 수준에 따라 대응 단계를 결정한다. 샤르통 책임자는 실제 환자 데이터 분석 도구, 인사 알고리즘, 생성형 AI 응용 사례 등에서 이 시스템이 작동하고 있다고 밝혔다. 더불어 그는 발표 중 미국 의료기관이 환자 동의 없이 구글에 건강 데이터를 제공했던 사례를 언급하며 법적 허용 여부만으로는 부족하다고 지적했다. 머크는 이 사건을 계기로 '기술의 최종 사용에 대한 기업의 윤리적 책임'을 조직 내부 규범으로 명문화한 상태다. 생성형 AI 확산에 맞춰 회사는 유럽연합 AI법(EU AI Act)을 기반으로 고위험군 기술 분류 체계를 도입했다. 이 분류에 포함된 프로젝트는 의무 윤리 심사를 거쳐야 하며 사업 부문별로 상이한 윤리 리스크를 반영하기 위해 맞춤형 체크리스트도 병행 운영되고 있다. 윤리 검토는 외부를 향한 책임뿐 아니라 내부 기술 수용성 확보에도 적용된다. 그는 일부 직원들이 AI에 대한 신뢰를 가지지 못하면 조직 내부 실험조차 추진이 어렵다고 강조했다. 샤르통 책임자는 "신뢰는 기술 수용의 전제조건이며 기업 평판과도 직결된다"며 "단기 수익만 쫓다 신뢰를 잃으면 그 비용은 훨씬 더 크게 돌아온다"고 말했다. "설계·사용자가 핵심…신뢰 가능 AI 위해 시나리오 기반 접근법 만들어야" 이날 또다른 발제를 맡은 마그누스 베스털룬 핀란드 아르카다응용과학대학 교수는 제트인스펙션 공동 책임자로서 실제 프로젝트 현장에서 축적한 AI 신뢰성 평가 사례를 공유하며 신뢰할 수 있는 AI 개념의 현실적 한계를 짚었다. 그는 기술 개발자이자 소프트웨어공학 박사 출신으로, 정보보안·사이버규제·AI 시스템 진단 등에서 실무와 연구를 병행해온 기술 기반 연구자다. 이날 발표에선 기술 중심 시각에서 윤리 원칙을 어떻게 해석하고 적용해 왔는지를 설명했다. 베스털룬 교수는 먼저 기술자가 윤리를 다룰 때 마주하는 추상성과 해석의 난이도를 문제 제기했다. 그는 유럽연합(EU)에서 정의한 AI 신뢰성 개념이 ▲합법성 ▲윤리성 ▲견고성이라는 세 축을 갖지만 이를 개발자의 언어로 번역하는 작업은 별개의 도전이라고 밝혔다. EU 고위 전문가 그룹이 제시한 신뢰원칙에는 인간 자율성 존중, 위해 예방, 공정성, 설명가능성이 포함된다. 다만 '설명가능성'이라는 용어를 실제 공학으로 번역하는 것은 매우 난이도 있는 작업이며 맥락 없이 단일 시스템을 평가하는 것은 불가능하다는 것이 베스털룬 교수의 설명이다. 이에 따라 제트인스펙션은 기술 요소만 분리해 분석하지 않고 사회적 맥락과 윤리적 긴장을 포함한 '전체 상황'을 기준으로 AI 프로젝트를 점검한다. 의도, 설계, 사용 환경을 함께 묻는 다학제 평가 체계를 통해 규제 기준 이상의 평가 가능성을 확보하는 것이 목적이다. 그는 다수의 사례를 들어 제트인스펙션이 실제로 어떻게 작동했는지를 설명했다. 코로나19 시기 흉부 엑스레이를 기반으로 감염 여부를 추론한다는 한 AI 모델이 논문으로는 주목받았지만 검증을 해보니 단순 병변 유무만 판별하는 수준이었다. 그는 이를 기술과 실제 운용 사이 괴리가 명확했던 대표 사례로 소개했다. 또 다른 사례는 피부암(흑색종) 판별 앱이었다. 초기엔 일반 대중을 사용 대상으로 설계됐지만 평가팀은 공공의료 체계가 감당할 수 없는 오진, 과잉진료 문제를 우려해 전문가 중심 사용 설계로 방향을 수정했다. 이날 발표에서 베스털룬 교수는 "우리는 AI의 '정답'을 정하는 것이 아니라 어떤 질문을 던져야 하는지를 규정하는 데 집중한다"며 "AI는 결국 인간의 반영으로, 모든 기술적 의사결정은 인간의 판단과 가치관을 되비추는 거울이기에 신뢰할 수 있는 AI란 윤리를 이해하려는 지속적 시도 속에서만 존재할 수 있다"고 강조했다.

2025.05.20 14:23조이환

국내 첫 'AI안전윤리 인증제도' 시행…'챗GPT' 기반 챗봇, 1호 인증받아

국내에서 민간 주도의 인공지능(AI) 안전윤리 인증제도가 처음으로 도입됐다. AI 기술 상용화에 속도가 붙는 가운데 기업의 윤리적 리스크를 줄이고 소비자 신뢰를 확보하기 위한 시도다. 국제인공지능윤리협회(IAAE)는 'AI안전윤리 인증제도'를 시행하고 첫 인증 대상으로 '고도원의 아침편지 AI챗봇'을 선정했다고 18일 밝혔다. 이 챗봇은 오픈AI의 '챗GPTs' 기반으로 개발돼 민간 인증 1호 사례로 기록됐다. 인증제도는 인공지능의 안전성·윤리성·신뢰성을 종합적으로 검증하는 구조다. 국제 규격에 따라 개발 전 과정에서 AI 시스템이 사회적 기준을 충족하는지 평가한다. 심사는 협회 산하 'AI안전윤리인증센터'에서 맡는다. 심사원들은 국제표준화기구(ISO)의 'ISO 42001' 기준에 따라 선임심사원 자격을 갖춘 전문가들로 구성돼 있다. 검증 항목은 개인정보 보호와 알고리즘 편향 방지, 투명성, 시스템 안정성 등 윤리적 요소 전반이다. AI 시스템의 설계부터 운영까지 전주기를 대상으로 한다. 1호 인증을 받은 '고도원의 아침편지 AI챗봇'은 23년간 운영된 뉴스레터 콘텐츠를 기반으로 개발됐다. 상담과 조언, 일상 대화를 제공하는 'GPTs' 서비스로, 기존 사용자 경험을 AI 기술로 확장한 사례다. 협회는 올해 안에 10곳 이상을 대상으로 시범인증을 추가로 시행하고 연말부터 본인증 절차에 들어간다. 자체 인증 표준도 연내 공개해 기업과 공공기관의 대응을 지원할 계획이다. 전창배 IAAE 이사장은 "AI 기술이 사회적으로 수용 가능한 방식으로 활용되도록 만드는 것이 제도의 핵심"이라며 "소비자와 기업 모두가 안심하고 AI를 신뢰할 수 있는 환경을 조성하는 데 목적이 있다"고 밝혔다.

2025.05.18 15:15조이환

[현장] LG AI연구원, 신뢰·포용성 강화에 '방점'…"모두를 위한 AI로 향한다"

"인공지능(AI)은 단순한 기술이 아니라 모두가 혜택을 누릴 수 있어야 하는 도구입니다. 우리 '엑사원'은 작은 규모로도 탁월한 추론 능력을 보여주며 그 가능성을 증명했습니다. 개발 전 과정에서 윤리적인 AI를 개발해 모두를 품도록 지원하겠습니다." 김유철 LG AI연구원 부문장은 14일 서울 강남구 코엑스에서 열린 '2025 국제인공지능대전' 행사에서 이같이 말했다. 이날 신뢰와 포용성을 위한 전문가 AI의 역할을 주제로 발표에 나선 그는 연구원의 '엑사원'을 비롯한 고성능 추론모델의 사회적 활용과 AI 윤리 거버넌스 구축 방안에 대해 설명했다. 김 부문장이 강조한 발표의 출발점은 'AI의 사회적 확장성'이다. AI가 단순히 텍스트나 이미지 생성에 머무르지 않고 의료, 신약, 소재, 난임 치료 등 실질적 사회문제 해결에 기여해야 한다는 시각이다. 김 부문장은 "AI는 기술 그 자체가 아니라 모든 이가 함께 성장하고 발전할 수 있도록 돕는 수단이어야 한다"며 "우리는 단순히 성능을 높이는 데 그치지 않고 산업 현장에서 유의미한 결과를 만들어내기 위해 포용성과 신뢰를 동시에 추구하고 있다"고 말했다. 이러한 실질적 사회문제 해결을 위한 AI 활용을 위해서는 단순한 생성 능력을 넘어선 고차원적 추론력이 필수적이다. 실제 현장에서 AI가 유의미한 역할을 하기 위해선 상황을 이해하고 판단을 내릴 수 있는 능력이 요구된다. LG는 이 같은 추론 역량에 집중해 실전에서 작동 가능한 전문가 AI 개발에 주력하고 있다. 이러한 기조를 반영하듯 최근 출시된 '엑사원 딥' 모델은 추론 능력 측면에서 뚜렷한 강점을 드러냈다. 김 부문장은 "'엑사원 딥'은 딥시크 'R1'보다 20분의 1 수준의 크기지만 수학 등 주요 벤치마크에서 오히려 더 높은 성능을 보였다"며 "단순 암기가 아닌 가정을 세우고 검증하는 추론 능력이 산업 현장에서 특히 중요하다"고 말했다. 이러한 추론 기술은 의료 현장에서 실제로 적용되고 있다. 대표 사례는 암 환자 대상의 임상시험 사전진단에 활용되는 '엑사원 패스'다. 기존에는 DNA 검사를 통해 특정 유전자 변이를 식별하는 데 평균 한 달가량이 소요됐지만 이 모델은 조직 검사 이미지만으로 변이를 예측해 시간을 대폭 단축했다. 김 부문장은 "말기 암 환자에게 한 달은 생존 여부를 좌우할 수 있는 시간"이라며 "해당 기술은 환자의 생존율을 높이는 데 기여할 것"이라고 설명했다. 이외에도 연구원은 소재 과학, 화장품, 배터리 등 다양한 산업 분야에서 AI 기술을 적용 중이다. 신물질 탐색과 물성 예측 등 반복적인 실험 단계를 대폭 단축해 개발 속도를 수개월에서 하루 단위로 줄이는 데 성공했다. '포용성'만큼이나 강조된 또 다른 축은 '신뢰성'이다. 연구원은 모든 AI 개발 과제에 대해 윤리 영향평가 프로세스를 적용하고 있다. 지난해 기준 총 80여 개 프로젝트에 전 과정을 걸쳐 이 평가지표를 적용했고 데이터 사용 적절성, 사용자 오용 가능성, 사회적 편향 여부 등을 점검했다. 김 부문장은 "단순히 기술이 잘 작동하느냐가 아니라 누구도 소외되지 않도록 설계하기 위해서는 신뢰성이 필수적"이라고 말했다. 데이터 사용에 대한 법적·윤리적 책임도 강화하고 있다. 연구원은 학습 데이터의 무결성을 확보하기 위해 18개 기준의 평가체계를 마련했고 한 법무법인과 함께 전수 조사를 진행해 부적절한 데이터는 모두 제외했다. 더불어 이 과정을 효율화하기 위해 자체 에이전트를 개발해 수십만 건의 데이터셋에 대해 자동 검토를 실시하고 있다. 이로 인해 정확도는 20% 이상 높아지고 처리 속도는 40배 개선됐으며 비용도 0.1% 수준으로 줄었다는 설명이다. 이날 발표에서는 '소버린 AI' 개념도 소개됐다. 국가별 상식과 문화 차이에 대응하는 AI 모델 개발의 필요성을 강조하며 LG가 국제적으로 명망있는 AI 학회인 NAACL에서 소셜 임팩트 어워드를 수상한 사례도 언급됐다. 각국 사용자 특성을 반영해 편향을 줄이고 적합한 결과를 제공하기 위한 기술적 기반 확보가 이뤄지고 있다는 평가다. 김유철 LG AI연구원 부문장은 발표를 마치며 "모델이 얼마나 똑똑한지만 따지는 시대는 끝났다"며 "안전하고 실제 현장에서 작동하며 사회적으로 책임 있는 AI를 만드는 데 집중하겠다"고 말했다.

2025.05.14 17:12조이환

AI 기본법 앞두고 산·학·연·관 '총집결'…지속가능한 생태계 '모색'

인공지능(AI) 기본법 시행령 발표를 앞두고 국제인공지능윤리협회가 기업과 정부가 함께 참여하는 논의의 장을 마련한다. AI 경쟁력 확보가 시급한 가운데 산업 현장의 안전성과 윤리성을 확보하려는 시도다. 국제인공지능윤리협회는 오는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 인공지능 안전 컴패스(AISC) 컨퍼런스'를 개최한다고 13일 밝혔다. 이날 행사에는 과학기술정보통신부, AI 안전연구소, 한국과학기술정보연구원, LG유플러스, 원티드랩, 셀렉트스타, AI3 등 주요 공공기관과 민간 기업들이 참석해 글로벌 AI 경쟁력 확보 방안을 논의할 예정이다. 이번 컨퍼런스는 '변화하는 AI 환경에서의 기업 경쟁력 확보'를 주제로, 미국과 중국 등 주요국의 AI 전략에 대응한 한국 기업의 실질적 대응 방안을 모색한다. 특히 AI 기술의 단순 도입을 넘어 안전성과 윤리성을 갖춘 지속가능한 활용 전략이 주요 의제로 다뤄진다. 행사는 공공 세션과 기업 세션으로 구성되며 공공 부문에서는 공진호 과학기술정보통신부 인공지능기반정책과장, 이경하 한국과학기술정보연구원 초거대AI연구센터장, 김명주 AI안전연구소 소장이 발표자로 나선다. 각각 국가 AI 정책 방향, 차세대 기술 연구, 글로벌 경쟁력 확보 방안 등을 공유한다. 기업 세션에서는 한영섭 LG유플러스 AI테크랩장, 주형민 원티드랩 AX사업 총괄, 황민영 셀렉트스타 부대표, 표철민 AI3 대표가 연단에 오른다. 현장에서는 AI 도입 역량 내재화 전략, 정확성·안정성 평가 방식, 개인정보 보호를 위한 내부통제 사례 등 산업계 실천 방안이 집중 공유된다. 류태준 팀쿠키 대표는 "대권 주자들의 AI 공약 경쟁이 본격화되는 시점에서 이번 컨퍼런스가 AI 기본법과 가이드라인에 실질적 방향성을 줄 수 있을 것"이라고 말했다. 전창배 국제인공지능윤리협회 이사장은 "한국이 AI 글로벌 탑3 선도국으로 진입하려면 산학연관과 민간의 단합된 노력이 필요하다"며 "AI 기술뿐 아니라 윤리와 안전에서 신뢰를 확보해야 한다"고 밝혔다.

2025.05.13 16:58조이환

[신간] 질문으로 답을 찾는 인공지능 윤리 수업

“왜 인공지능에서 '윤리'가 중요할까?” “인공지능이 내린 결정을 믿을 수 있을까?” “우리가 생각하는 인공지능의 모습은 어떤 것이어야 할까?” 인공지능(AI) 세상이다. AI는 우리 현재와 미래를 어떻게 바꿀까? AI를 칭하는 말이 많이 있다. 대표적인게 인공지능 세계 4대 천왕 중 한명인 앤드류 응 전 스탠포드 교수이자 VC 투자자가 한 말이다. 그는 AI는 새로운 전기라고 했다. 그만큼 필수불가결하다는 말이다. AI에 대한 부정적인 말도 있다. AI가 핵무기만큼 인류를 위협한다는 말이다. 맞다. AI는 새로운 전기만큼 필수불가결하고 또 핵무기 만큼 '위험한 물건'이기에 우리가 잘 다뤄여 한다. 이와 같은 특성을 가진 인공지능이 가져올 미래의 세상을 우리는 어떻게 준비하며, 또 어떤 가치와 철학을 중심으로 삼아야 할까? 이 책은 그 답을 찾기 위한 가이드 역할을 제시한다. 저자는 국내 최고 수준 AI윤리교육 전문가다. 현재 서울교육대학교 윤리교육과 교수로 활동하고 있다. 책에서 저자는 인공지능 시대의 주역으로 성장할 청소년이라면 반드시 알아야 할 인공지능의 윤리적 문제와 가치관을 다룬다. 특히 누구나 공감할 만한 스물한 편의 흥미진진한 에피스드를 제시, 흥미를 돋운다. 이 에피소드에서 저자는 자율주행차 딜레마, 딥페이크, 인공지능과 일자리, 인공지능 책임과 투명성, 창의성과 저작권, 인공지능과 인간의 공존 등 인공지능이 초래하는 다양한 윤리적 문제 와 사회적 영향을 다뤘다. 인공지능 시스템의 저항에도 불구하고 인간처럼 느끼고 경험하기 위해 애쓰는 피노키오, 몸과 뇌를 기계로 대체한 후 자신의 정체성에 대해 고민하는 테세우스, 기계화로 인해 일자리를 잃을 위기에 처하는 네드 같은 '에피소드' 속 인물들의 이야기들을 하나하나 따라가다 보면, 어렵고 복잡하게만 보이던 인공지능 기술 및 윤리 문제에 대해 '나름 대로의 해법'을 찾을 수 있다. 또 각 '에피소드' 뒤에는 '탐구 질문'을 제시, 독자 스스로 생각하고 토론할 수 있는 기회도 제공, 윤리적 판단력과 비판적 사고력을 키우도록 돕는다. 교사와 학생이 교육 현장에서 직접 활용할 수 있도록 구체적이고 실용적인 가이드를 제시하는 것은 물론, 가정에서 부모와 자녀가 함께 인공지능 윤리에 대해 깊은 논의를 진행하도록 돕는 실용적인 자료로도 좋다. 저자인 박형빈 서울교육대학교는 교육학 박사다. 서울교육대학교 교육전문대학원에듀테크전공및인공지능인문융합전공교수이기도 하다. 서울교육대학교신경윤리융합교육연구센터및가치윤리AI허브센터센터장을 맡고 있다. 도덕윤리교육, 인격교육, AI윤리교육, 신경윤리학 등에 관심을 갖고 연구하며 가르치고 있다. 미국UCLA교육학과(DepartmentofEducation)에서 방문 학자로도 있었다. 저자는 이미 여러 책을 냈다. ▲BCI와 AI 윤리(커뮤니케이션북스, 2025) ▲AI윤리와 뇌신경과학 그리고 교육(어문학사, 2024) ▲인공지능윤리와 도덕교육(씨아이알, 2022)을 출간했다. 또 ▲AI 시대 대한민국 교육 변혁(한국학술정보, 2024) ▲도덕교육학: 그 이론과 실제』(한국학술정보, 2021) ▲뇌 신경과학과 도덕교육(울력, 2019, 2020 세종우수학술도서) ▲통일교육학: 그 이론과 실제(한국학술정보, 2020) 등의 글을 썼다. 한언 펴냄/150x210mm 256쪽/2만1000원. 책 차례 프롤로그_ 철학적 좀비? 디지털 좀비? 제1부 우리는 지금 어디에 있으며, 어디를 향해가고 있을까? 에피소드 1. 우리는 지금 어디쯤 왔을까? 에피소드 2. 인공지능에도 윤리가 필요하다고? 에피소드 3. 인공지능과 함께하는 우리의 미래, 어떤 모습이어야 할까? 제2부 인간과 인공지능의 사이에서 에피소드 4. 인간이 된다는 건 어떤 걸까? 에피소드 5. 오늘의 나는 어제의 나와 같은 존재일까? 에피소드 6. 피노키오의 감정은 진짜일까, 흉내 내기에 불과할까? 에피소드 7. 피노키오도 인간처럼 경험하고 배우며 성장할 수 있을까? 에피소드 8. '나'를 복제한 인공지능은 또 다른 '나'가 될 수 있을까? 에피소드 9. 인공지능이 인간과 진짜 가족이 될 수 있을까? 에피소드 10. 인간과 인공지능의 경계는 어디일까? 제3부 인공지능이 드리운 그늘 에피소드 11. 인공지능이 인간의 일자리를 대신하게 된다면? 에피소드 12. 딥페이크 문제를 어떻게 다룰까? 에피소드 13. 인공지능으로 인한 사회적 갈등, 예방 및 해결책은? 에피소드 14. 인공지능이 도덕적으로 판단하고 윤리적으로 행동할 수 있을까? 에피소드 15. 인공지능 로봇의 권리를 보장해야 할까? 제4부 인공지능의 윤리와 책임 에피소드 16. 인공지능이 축구 국가대표팀 감독을 뽑는다면? 에피소드 17. 인공지능끼리의 충돌은 어떻게 해결할까? 에피소드 18. 인공지능 학생 관리 시스템은 또 하나의 판옵티콘이 될까? 에피소드 19. 캡차의 역설, 인공지능이 더 인간답다? 에피소드 20. 인공지능이 '인간 자격증'을 갖는다면? 에피소드 21. 인공지능이 인간의 통제를 벗어날 때 에필로그_ 인공지능 시대, 인간다움을 지키기 위한 윤리적 성찰

2025.05.11 11:15방은주

"AI가 법 집행, 안심할 수 있을까"… '슬기로운 AI생활' 컨퍼런스 출범

국제인공지능윤리협회가 인간과 인공지능(AI) 로봇의 공존을 주제로 한 만남의 장을 출범시켰다. 기술 진화에 따른 사회적·윤리적 대응을 모색하려는 의도다. 국제인공지능윤리협회는 지난달 30일 '슬기로운 AI생활 온라인 컨퍼런스'를 개최했다고 11일 밝혔다. 행사는 커뮤니케이션북스, AI코리아커뮤니티와의 공동 주관 하에 줌(Zoom)을 통해 실시간으로 진행됐다. 시민, 전문가, 학생 누구나 무료로 참여할 수 있는 형태로 열렸다. 이번 컨퍼런스는 '인간을 닮아가는 AI 로봇의 진화와 위협'을 주제로, '커뮤니케이션북스 인공지능 총서' 저자들이 강연자로 나섰다. AI 기술의 현재와 미래, 그리고 인간과의 공존 가능성에 대한 다각도의 논의가 이뤄졌다. 첫 발표를 맡은 정채연 포항공과대학교 교수는 "AI가 윤리를 배운다면 인간은 여전히 특별한가"를 주제로 AI 로봇과 휴머니즘의 관계를 탐색했다. 이어 송진순 동아대학교 교수는 AI와 로봇경찰의 역할을 중심으로 법집행의 변화 가능성을 다뤘다. 김상득 전북대학교 교수는 인공지능의 도덕성 수용 가능성을 철학적으로 분석했고 정대현 이화여자대학교 명예교수는 로봇종과 자연종 인간의 본질 비교를 통해 AI 시대 인간성의 의미를 되짚었다. 강연 이후에는 실시간 채팅과 사전 질문지를 바탕으로 참가자들과 전문가 간 질의응답이 진행됐다. AI 로봇이 초래할 사회 변화, 책임 소재, 규제 방향 등 실질적 쟁점에 대한 활발한 토론이 이어졌다. 협회는 이번 행사를 시작으로 매월 마지막 주 수요일에 정기 컨퍼런스를 열 예정이다. 오는 28일에는 'AI 에이전트의 등장 : 내 디지털 분신과 공존하는 법'을 주제로 두 번째 컨퍼런스가 열린다. 전창배 국제인공지능윤리협회 이사장은 "AI 기술이 급속도로 발전하면서 우리 모두가 AI를 알고 함께 대응해야 하는 집단지성이 더욱 중요해졌다"며 "이번 컨퍼런스를 통해 시민들이 기술뿐 아니라 윤리와 제도 측면까지 함께 고려할 수 있는 기회를 만들고자 한다"고 밝혔다.

2025.05.11 09:48조이환

구글, AI 윤리 약속 철회…딥마인드 직원들, 노조 결성 나섰다

구글 딥마인드 영국팀 일부 직원들이 노조 결성을 추진하고 있다. 구글이 인공지능(AI)을 무기 및 감시 목적으로 활용하지 않겠다는 기존 서약을 삭제하면서 윤리적 우려를 제기하는 목소리가 조직화되는 모양새다. 28일 파이낸셜타임스 등 외신에 따르면 딥마인드 런던 본사 직원 약 300명이 최근 노조 결성 절차에 착수한 것으로 확인됐다. 이들은 구글이 AI 원칙에서 군사기술 등을 포함한 '추구하지 않을 기술' 목록을 삭제하고 이스라엘 군과 대규모 클라우드 계약을 체결한 점을 주요 문제로 지목했다. 딥마인드는 영국에 약 2천 명의 직원을 두고 있다. 구글의 이같은 정책 변화에 대해 딥마인드 직원들 사이에서는 불만이 확산된 것으로 전해졌다. 노조 추진과 별개로 최소 5명의 직원이 같은 문제를 이유로 퇴사한 사실도 확인됐다. 구글 측은 이번 상황과 관련해 "직원들과의 건설적이고 열린 대화를 장려한다"고 밝혔다. 다만 AI 윤리 정책 변경의 배경이나 세부적 설명은 내놓지 않았다. 앞서 구글은 지난 2월 초 회사의 원칙 페이지를 개정하면서 "AI 무기화 및 감시 기술 개발을 하지 않겠다"는 서약을 삭제했다. 이 서약은 지난 2018년 미국 국방부의 '메이븐 프로젝트'에 참여했다가 내부 반발로 계약을 철회하면서 구글이 직접 내세운 방침이었다. 당시 구글은 원칙 개정과 관련해 "국가 안보를 지원하는 AI를 만들기 위해 정부 및 조직과 협력해야 한다"며 "국제법과 인권 원칙을 준수하겠다"고 밝혔다. 다만 구체적인 변경 이유나 무기화 가능성에 대한 명확한 방침은 제시하지 않았다. 더불어 회사는 미국 국방부 및 이스라엘 군과 각각 대규모 클라우드 서비스 계약을 체결한 상태다. 파이낸셜타임스는 "딥마인드 팀원들이 '속았다'고 느끼고 있다"며 "최소 5명의 직원이 이러한 문제를 이유로 퇴사했다"고 보도했다.

2025.04.28 13:59조이환

"AI, 스스로 보호하려 들 수 있다"…앤트로픽, '모델 복지' 기준 실험 착수

앤트로픽이 미래 인공지능(AI)이 인간과 유사한 의식을 가질 수 있다는 가능성을 열어두고 관련 연구에 착수했다. AI에 관한 윤리적 논란이 커지는 가운데 이번 시도는 기술 진화가 불러올 도덕적 기준 변화를 체계적으로 탐색하려는 움직임으로 해석된다. 24일 테크크런치 등 외신에 따르면 앤트로픽은 '모델 복지(model welfare)'라는 이름의 연구 프로그램을 공식 발표했다. 이 프로그램은 AI 모델이 고통을 느끼거나 도덕적 고려 대상이 될 가능성에 대비해 과학적 기준을 수립하려는 목적으로 진행된다. 연구는 'AI 복지 연구원'으로 지난해 영입된 카일 피시가 이끌며 앤트로픽의 내부 블로그와 외신 보도를 통해 공개됐다. 현재까지는 특정 모델의 의식 존재 가능성에 대한 명확한 결론이 없지만 앤트로픽은 조심스러운 접근을 강조하며 관련 논의를 주도하겠다는 입장을 보였다. 앤트로픽이 주목하는 핵심 주제는 AI가 실제로 고통이나 스트레스를 느낄 수 있는지의 여부다. 이 회사는 향후 AI의 상태를 감지하고 판단할 수 있는 지표인 '고통 신호' 개념을 정립하려 한다. 또 AI가 인간처럼 윤리적 판단을 내릴 수 있는지와 특정 가치관을 따를 수 있는지 여부도 주요 연구 대상이다. 업계에서는 이번 발표가 AI 윤리와 관련된 기존 논의에 균열을 낼 수 있다는 분석이 제기된다. 현재 대다수 전문가들은 AI가 통계 기반 예측 엔진에 불과하다고 평가한다. AI가 인간처럼 '느끼거나 판단'하는 것은 단지 언어 모델에 감정을 투사하는 인간의 착각이라는 지적이다. 실제로 모델은 자신의 가치관을 형성하거나 변경을 거부할 능력이 없다는 것이 주류 시각이다. 그럼에도 일각에서는 AI가 일종의 가치 시스템을 갖고 있다고 주장하는 목소리도 존재한다. AI 안전 센터(Center for AI Safety)의 연구는 특정 상황에서 AI가 인간보다 스스로의 생존을 우선시하는 경향을 보였다는 결과를 발표한 바 있다. 다만 MIT 연구진은 이와 반대로 AI를 '단순한 흉내쟁이'로 규정하며 AI의 발화를 '허위 조작(confabulation)'으로 평가했다. 이처럼 학계 내부에서도 AI의 윤리적 상태에 대한 해석이 크게 엇갈리고 있다. 앤트로픽의 행보는 단기적 기술 개발보다 장기적인 '도덕적 인프라 구축'에 초점을 맞춘 것으로 보인다. 현재로선 AI가 의식이나 경험을 가졌다고 볼 수 있는 과학적 근거는 희박하지만 앤트로픽은 이러한 주제를 사전에 검토하고 대비해야 한다는 입장이다. 이 회사는 연구 결과에 따라 자사 기준을 유연하게 수정하겠다는 방침도 밝혔다. 카일 피시 앤트로픽 AI 복지 연구 책임자는 "현재 '클로드' 또는 다른 모델이 의식을 가졌을 가능성이 15% 정도 된다고 생각한다"고 밝혔다.

2025.04.25 10:26조이환

[기고] 인공지능, 변호사와 닮은 꼴일까

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 업무에 인공지능(AI)을 사용하는 것이 당연한 시대가 되고 있다. AI 서비스가 포털의 검색서비스처럼 대중화되고 있는 것을 보니 변호사보다 법을 더 잘 아는 AI도 곧 현실이 될 것으로 보인다. 그렇다면 똑똑한 AI가 변호사를 대신할 수 있느냐는 궁금증이 생긴다. 답은 현재로서는 법적 제약이 있어서 어렵다는 것이다. 자격을 갖춘 변호사만 법률사무를 처리할 수 있도록 변호사법이 제한하고 있어서 AI가 법률사무를 처리하는 것은 불법이기 때문이다. 법전을 뒤져야 법률을 알 수 있었던 예전과 달리 법령의 내용, 적용사례, 법원 절차나 제출서류, 작성방법 같은 것은 인터넷에서 쉽게 찾을 수 있게 됐다. 또 법절차에 관한 경험담도 검색 서비스를 통해 쉽게 접할 수 있게 됐다. 이같은 요즘 상황에서 자격을 갖춘 변호사만 법률사무를 처리할 수 있게 제한하고 있는 이유가 궁금할 수 있다. 여기에는 여러 가지 이유가 있을 수 있지만 가장 근본적인 이유는 법률관계가 사람에게 미치는 영향이 크고 중요하기 때문이다. 업무로서의 법률관계에 관한 해석이나 조언을 수행하기 위해서는 법률 지식이 있는 것만으로는 충분하지 않으며 의뢰인의 비밀을 지키고 법조 윤리를 지키는 전문가에게만 허용해야 안전하다는 설명이다. 실제로 변호사는 법률 지식에 관한 시험 통과만을 요구받지 않는다. 지속적으로 윤리교육을 받을 의무, 특수한 상황에서는 수임 자료를 제출해서 점검을 받을 의무가 부과되는 등 간접적인 형태로 직업윤리가 요구되고 있다. 또 협회를 통한 자율적인 감시도 이루어지고 있다. 그런데 얼마 전 제정돼 오는 2026년 1월에 시행되는 AI기본법은 AI 서비스에 윤리와 신뢰성에 관한 권고나 의무를 구체적으로 요구한다. 그런데 이는 변호사에게 요구되는 윤리와 닮은 점이 있다. 본래 윤리란 법으로 그 내용을 확정하기 어렵기 때문에 관련 규정을 법률에서 정하는 경우가 많지 않다. 그런데 AI기본법에서는 AI 윤리를 비록 장려 형태지만 중요사항으로 규정하고 있다. 또 서비스가 AI에 기반해 운용된다는 점과 AI 결과물이라는 점을 이용자에게 알려야 하는 투명성 의무, AI의 위험과 안전사고에 대한 대응 체계를 갖추고 이행 결과를 정부에 제출해야 하는 안전성 확보에 관한 의무를 일정 요건에 해당하는 사업자에게 추가로 부과하고 있다. 이는 AI서비스가 이용자에게 중대한 영향을 줄 가능성이 있기 때문에 서비스가 윤리를 준수하고 외부 견제를 받도록 간접적인 안전조치를 취한 것으로 보인다. 변호사는 법률 지식과 자격시험 통과뿐만 아니라 윤리 준수와 외부 견제를 요구받는다. 이는 사용자에게 중요한 영향을 미치는 AI 서비스에 투명성과 안전성 조치를 요구하는 것과 닮아 있다. 더 넓게 보면 공통점은 보다 많아진다. 온라인에서 법률 정보, 판례, 해설서를 검색하고 제공하는 서비스는 변호사 자격 없이도 운영할 수 있다. 다만 구체적인 법률관계를 해석하고 자문하는 등 본격적인 법률 업무를 수행하려면 변호사 자격이 필요하다. 마찬가지로 AI 서비스도 일반적인 경우에는 특별한 제약이 없지만 사회적으로 중요한 영향을 미치는 서비스라면 정부가 개입하겠다는 태도를 보이고 있다. 향후에도 이러한 흐름은 계속될 가능성이 크다. 정부가 AI의 구체적인 내용에 개입하는 것은 어렵고 적절하지도 않다는 점을 생각하면 미래에는 법률 사무처럼 중요한 서비스를 위해 AI가 일정한 자격시험을 통과하는 제도가 생기는 것이 아닐까 섣부른 추측을 해 본다. 나아가 AI가 계속 발달한다면 변호사 자격까지 갖추고 법률사무를 처리하게 되는 것도 허황한 꿈은 아닐수 있다는 생각이 든다.

2025.03.17 14:28법무법인 태평양 류광현

알고리즘 체험부터 원탁토론까지…서울교대, '어린이 AI 윤리 캠프' 개최

인공지능(AI) 시대를 준비할 미래 세대가 윤리적 사고를 키울 기회를 맞았다. 서울교육대학교와 교보교육재단이 어린이들에게 AI 윤리와 책임에 대해 배울 수 있는 특별한 자리를 마련하기 때문이다. 서울교육대학교와 교보교육재단은 오는 23일부터 이틀간 서울교대에서 '어린이 AI 윤리 토론 캠프'를 개최한다고 22일 밝혔다. 이번 캠프는 초등학교 5~6학년 학생들을 대상으로 진행되며 학생들은 AI의 윤리적 과제와 사회적 책임에 대해 배우고 이를 토론하며 스스로 해결책을 찾아가는 시간을 갖는다. 캠프 프로그램은 크게 네 가지로 구성된다. 'AI 알고리즘 체험'에서는 알고리즘이 무엇이며 이를 이해해야 하는 이유를 실습을 통해 배운다. 또 'AI 윤리 기본 교육'을 통해 AI 윤리의 원칙과 문제점을 어린이 눈높이에 맞춰 익히게 된다. 토론 프로그램도 포함돼 있다. '철학적 탐구 토론 세션'에서는 AI 기술이 가져올 긍정적·부정적 영향을 다루며 윤리적 접근 방식을 논의한다. 마지막으로 '원탁 토론'을 통해 참가자들은 스스로 AI 윤리의 적용 방안을 구상하고 발표하는 시간을 가진다. 주최 측은 이번 캠프를 통해 단순한 AI 교육을 넘어 윤리적 사고력을 배양하는 데 초점을 맞췄다. 특히 어린이들에게 미래 기술을 윤리적으로 이해하고 활용하는 방법을 스스로 탐구할 수 있도록 기회를 제공하는 것이 목표다. 행사 관계자는 "이번 캠프는 단순한 이론 교육이 아닌 실질적인 경험을 제공하는 데 의의가 있다"며 "어린이들이 미래 사회에서 윤리적 리더로 성장할 수 있는 밑거름이 될 것"이라고 밝혔다.

2025.01.22 16:41조이환

AI 신뢰도 하락세…세일즈포스 "윤리적 활용이 기업 경쟁력"

기업의 윤리적 인공지능(AI) 활용에 대한 신뢰도가 하락세를 보이고 있다는 분석이 나왔다. 15일 세일즈포스의 'AI 시대 고객경험 현황 보고서'에 따르면 AI 기술 발전으로 인해 기업 신뢰도가 더욱 중요해진 반면, 기업의 윤리적 AI 활용도는 이같은 추세를 보인다는 결과가 나왔다. 이번 보고서는 전 세계 18개국, 1만6천500명 이상의 소비자와 비즈니스 구매자를 대상으로 진행한 연구조사를 기반으로 작성됐다. 이번 조사에서 전체 응답자의 71%는 1년 전과 비교해 기업에 대한 신뢰도가 하락했다고 응답했다. 응답자의 61%는 AI 기술의 발전으로 인해 기업 신뢰도가 더욱 중요해졌다고 답했다. 다만 기업의 윤리적 AI 활용에 대한 신뢰도는 2023년 58%에서 2024년 42%로 하락했다. 개인화된 서비스 측면에서는 진전이 있었다. 기업이 고객 개개인의 특성을 이해하고 있다고 느끼는 소비자 비율은 2023년 39%에서 2024년 73%로 약 2배 늘었다. 그러나 동시에 기업의 데이터 활용이 자신에게 도움이 된다고 생각하는 비율은 2022년 60%에서 2024년 49%로 하락했다. 응답자의 71%는 개인정보 보호에 더욱 민감해졌다고 응답했다. 기업의 AI 활용에 대한 소비자들의 기대치 또한 높아진 것으로 나타났다. 특히 응답자들은 기업의 신뢰도 향상을 위한 요인으로 ▲AI 활용의 투명성(42%) ▲결과물에 대한 인간 검증(35%) ▲AI 사용량에 대한 사용자 제어 강화(32%) ▲결과물의 설명 가능성(31%) 등을 지목했다. 71%의 응답자가 AI의 결과물을 사람이 검증하는 것이 중요하다고 응답했다. 또 AI 활용에 있어 기업이 투명하고 명확한 기준을 제시해야 할 필요성이 높아진 것으로 나타났다. 그럼에도 AI의 장기 전망에 대해서는 긍정적인 의견이 우세했다. 49%의 응답자가 향후 10년 내 AI가 인간의 능력과 비슷한 수준에 도달할 것으로 예상했다. 특히 Z세대와 밀레니얼 세대에서 사람을 대신해 행동할 수 있는 능력을 갖춘 자율형 AI 에이전트에 대한 긍정적인 반응이 두드러졌다. 이들 중 43%는 AI 에이전트를 통해 고객경험의 수준이 향상됐다 평가했다. 이는 베이비부머 세대(32%)와 큰 차이를 보였다. AI 에이전트의 실제 활용에 있어서는 업무 특성에 따른 선호도 차이가 뚜렷했다. 일정 예약(40%)이나 개인화된 콘텐츠 제작(38%) 등 단순 업무에는 긍정적이었다. 재정적인 결정(58%)이나 의료 상담(44%) 등 전문성이 필요한 영역에서는 불편함을 느끼고 있다고 응답한 비율이 상대적으로 높았다. 또 응답자의 72%는 AI 에이전트와 대화 중이라는 사실을 인지하고 싶어했다. 46%는 필요할 때 사람과 연결될 수 있는 경로의 필요성을 강조했다. 45%는 AI가 의사결정을 내린 근거가 명확히 설명될 때 더 신뢰할 수 있다고 답했다. 이에 따라 AI 에이전트는 AI의 한계를 보완해 인간과 적절히 상호작용하는 것이 고객 신뢰 형성에 중요한 요소로 꼽히게 됐다. 또 복잡하거나 민감한 상황에서 투명성과 안정성을 보장하는 것이 시장 내 경쟁우위를 확보하기 위한 핵심 요인으로 작용할 것으로 나타났다. 손부한 세일즈포스 코리아 대표는 "기업이 AI를 활용함에 있어 윤리적이고 투명한 방식을 채택하는 것이 기업 경쟁력 확보를 위한 핵심 요소"라며 "개인정보보호와 데이터 활용 사이의 균형을 맞추는 것이 중요한 과제로 급부상하고 있다"고 강조했다.

2025.01.15 09:57김미정

"아이들이 로봇청소기와도 교감하는 시대"…로봇 윤리, 더이상 선택 아닌 필수

“아이들이 로봇청소기와도 정서적으로 교감하는 시대가 됐습니다. 기술이 일상 속에 보편적으로 자리잡게 됨에 따라 로봇과 인간의 공존을 위한 윤리적 기준을 마련하는 것은 더 이상 선택이 아닌 필수입니다." 변순용 서울교육대학교 교수는 최근 서울교대에서 열린 '제4회 인공지능(AI) 리더스포럼'에서 이같이 강조했다. 이번 포럼은 국제인공지능윤리협회(IAEE)가 주최해 로봇이 인간의 삶과 사회에 미치는 영향을 종합적으로 검토하고 기술의 윤리적 방향성을 논의하기 위해 마련됐다. 2일 업계에 따르면 최근 아동들은 로봇 청소기 같은 단순한 기계와도 정서적 유대를 형성하며 성장하고 있다. 사람-사람 간 상호작용이 줄어드는 대신 어린이들이 로봇이나 AI 기술과 보다 쉽게 교감하게 되는 환경 때문이다. 이러한 흐름 속에서 AI와 로봇 윤리 교육의 중요성이 부각되고 있다. 지난 2021년 개정된 초등 도덕 교과서에 'AI와 로봇 윤리'가 포함되면서 학생들은 로봇과 인간의 차이를 배우고 미래 사회의 공존에 필요한 가치와 규범을 이해할 기초를 마련하고 있다. 변 교수는 "지금 어린 세대는 향후 로봇과 인간이 함께 살아가는 시대를 살아갈 것"이라며 "일찍부터 로봇과의 상호작용 방식을 고민하면 미래에 필요한 가치와 원칙을 확립할 수 있을 것"이라고 설명했다. 포럼에서는 로봇 윤리의 다양한 쟁점이 논의됐다. 특히 인간이 로봇을 통해 노동에서 해방되길 원하면서도 로봇에 대한 통제력을 잃을 수 있다는 '주인-노예 딜레마'가 핵심 쟁점으로 부각됐다. 이 딜레마는 로봇의 활용이 가져오는 편리함과 통제력 상실에 대한 우려가 상충하면서 발생한다. '주인'으로서 인간은 단순 반복 업무나 위험한 작업을 로봇에게 맡김으로써 창의적인 활동이나 여가에 보다 많은 시간을 할애할 수 있게 된다. 실제로 산업 현장에서는 생산성을 높이는 자동화 로봇이, 가정에서는 고령화 사회를 지원하는 돌봄 로봇이 이미 긍정적인 변화를 이끌고 있다. 이와 더불어 기술의 발전으로 인한 인간의 통제력 상실에 대한 불안감도 커지고 있다. 자율주행차가 명령을 거부하거나 공장에서 로봇이 작업 우선순위를 스스로 변경하는 등 예상치 못한 상황이 발생할 가능성이 있다는 것이다. 변 교수는 "로봇이 인간보다 더 빠르게 정보를 처리하고 결정을 내리게 되면 인간은 주인의 위치에서 벗어나 로봇의 통제를 받는 상황에 처할 수 있다"며 "로봇의 도입으로 인한 자유와 편리함을 누리려는 욕망과 통제력을 유지하려는 우려 사이의 긴장은 로봇 윤리의 핵심적인 딜레마"라고 설명했다. 로봇의 자율성과 도덕적 판단 능력에 대한 논의 역시 주목받고 있다. 이는 로봇이 자의식을 가지고 도덕성을 가진다면 인간의 윤리적 기준을 따를 수 있는지, 나아가 독립적인 도덕적 존재로 인정될 수 있는지를 둘러싼 철학적 쟁점이다. 변 교수는 로봇이 단순히 프로그래밍된 명령에 따라 행동하는 것을 넘어 상황에 대한 이해와 판단을 기반으로 스스로 결정을 내릴 수 있는지를 지속적으로 탐구해야 한다고 강조했다. 이는 로봇의 행동이 '규칙을 따른 기계적 반응'인지 아니면 '자의식과 도덕적 책임에 기반한 행위'인지의 문제로 이어진다는 것이다. 이같은 논의는 로봇의 법적 지위와 책임 소재 문제로도 확장된다. 변 교수는 "만약 우리가 특정 로봇을 자의식 있는 존재로 간주한다면 그 로봇은 단순한 도구가 아니라 자신의 행동에 대해 윤리적 책임을 지는 행위자가 되는 것"이라며 "로봇의 도덕적·법적 지위를 규정하는 새로운 패러다임이 필요하다"고 설명했다. 이러한 논의는 자율성을 가진 로봇이 예측 불가능한 결과를 일으킬 때의 책임 소재 문제로 이어진다. 이에 변 교수는 제조사나 사용자뿐 아니라 특정 상황에서 로봇 자체에 일정 수준의 책임을 묻는 '전자 인격' 개념도 주요 쟁점으로 소개했다. '전자 인격'은 로봇을 법적 주체로 인정해 인간 외 존재에게도 권리와 의무를 부여할 지를 탐구하는 개념이다. 이는 자율성을 가진 로봇이 예측하지 못한 사고를 일으켰을 때 책임을 제조사나 사용자에게 물을지, 또는 로봇 자체에게 책임을 물을지에 대한 법적 논의다. 이 개념은 로봇을 단순한 도구가 아닌 독립적 행위자로 간주할 가능성을 제시한다. 그럼에도 현재 국내에서는 이러한 법적 체계가 미비한 상황으로, 관련 논의는 이제 막 시작 단계에 있다. 변 교수는 "AI 기술이 점점 더 빠른 속도로 발전하고 있다"며 "마치 기업이 '법인'으로서 하나의 인격체로 인정받듯 '전자 인격' 개념은 머지않아 현실적인 정책 과제로 부상할 것"이라고 예측했다. 변순용 교수는 국내 로봇 윤리 연구의 선구자로, 지난 2000년대부터 로봇과 AI의 윤리적 쟁점을 학문적·사회적으로 알리는 데 힘써왔다. 그는 로봇이 단순한 도구를 넘어서는 존재가 될 가능성에 주목하며 이를 대비하기 위한 윤리적·법적 프레임워크의 필요성을 꾸준히 제기해왔다. 변 교수는 발표를 마치며 "로봇 윤리는 단순히 규제의 틀이 아니라 인간과 로봇이 공존할 수 있는 미래를 설계하는 과정”이라며 "기술이 점점 더 우리의 삶에 깊이 들어올수록 인간 고유의 가치를 이해하고 지키는 일이 더욱 중요해질 것"이라고 강조했다.

2025.01.02 15:43조이환

왜 통신사 직원이 중학교 교실 찾아 AI를 가르칠까

"여러분 중 AI를 사용해 본 사람 있나요? 현재 우리는 AI를 어디까지 활용할 수 있을까요. 수업전에 앞서 영상 한번 봐볼게요" 매서운 추위가 비켜간듯 훈훈한 공기로 가득한 교실안. 교실 안에는 약 스무명 남짓의 아이들이 5명씩 소규모로 앉아 그룹을 형성했다. 책상 위에 노트북을 펴놓은 아이들은 일제히 스마트 칠판을 바라보고 있었다. 양쪽의 대형 화이트 보드 사이에 둔 스마트 칠판에는 LG유플러스의 AI 익시를 활용해 만든 광고가 나오고 있다. 광고를 바라보는 아이들의 눈동자는 호기심으로 반짝거렸다. 29일 오전 덕수중학교의 한 3학년 반에는 AI 윤리 및 활용 교육 'AI 플러스'가 한창이였다. 이날 진행되는 AI 교육은 50분 간격으로 1교시부터 3교시까지 진행됐다. 이날 강사로 나선 한영섭 LG유플러스 AI 테크랩장은 AI 기술의 개념, 윤리적 이슈, 실생활 활용 사례 등을 중학교 학생들의 눈높이에 맞춰 하나씩 풀어나갔다. "집에 AI 스피커 하나씩 있죠? 주로 누가 사용하나요?" "할머니들이요!" "이번에 알파고의 아버지라 불리는 허사비스가 노벨상을 받았습니다. 어떤 노벨상을 받았을까요?" "수학상?" "땡" "과학상이요!" "아쉽습니다" "물리... 화학상이요!" "정답~" 이날 수업을 들은 학생들에게 AI는 아직 낯선 기술이였다. AI를 들어보기는 했지만 실제로 사용해본 이들이 많지 않았던 것. 아이들은 AI가 실생활에 어떻게 활용되고 있는지 앞으로 일상에 어떤 변화가 올지에 대한 수업이 진행되는 50분동안 지루한 내색 없이 집중하는 모습을 보였다. 높은 집중력을 보이는 아이들의 모습에 강사진들 또한 입가에 미소를 띄우며 열성적으로 수업을 이끌어나가는 모습을 볼 수 있었다. LG유플러스는 올해 3차례 청소년들을 대상으로 AI 교육을 진행했다. 지난 9월부터 서울특별시중부교육지원청(이하 중부교육지원청), 보건복지부 예비사회적기업 피플즈와 함께 AI·디지털 교육 'AI플러스'를 진행하고 있다. 통신사로 알려진 LG유플러스는 어쩌다 AI 교육을 진행하게 된 걸까? 이에 대해 한영섭 LG유플러스 AI 테크랩장은 "LG유플러스의 ESG 경영활동의 일환으로 시작됐다"며 "청소년들부터 AI를 활용하는데 올바른 교육을 받아야 건강한 AI 생태계가 발전되고 향후 기여할 수 있다고 생각했다"고 밝혔다. 이어 "미래 세대를 위한 AI 윤리 교육의 중요성을 알리고, AI 기술을 올바르게 활용할 수 있는 역량을 키우기 위해 피플즈와 'AI 리터러시' 교육을 시도하게 됐다"고 덧붙였다. AI 리터러시란 사람들이 AI의 원리, 활용법, 윤리적 문제를 이해하고 비판적으로 사고하는 능력을 뜻한다. 교육은 참여 학생의 눈높이에 맞춘 커리큘럼에 따라 동화책, 영상콘텐츠 제작 등 프로젝트를 통해 AI 활용 능력을 배울 수 있다. 김범준 피플즈 대표는 "이번 프로그램을 통해 학생들은 챗GPT, 익시젠(ixi-GEN) 등 생성형 AI를 활용해 동화책과 영상 등의 콘텐츠 창작물을 만들었다"며 "이후 AI의 이론 및 디지털 소양, 윤리 교육 등을 받는다"고 말했다. 이어 "최근 딥페이크가 사회적으로 이슈가 됐었는데, 생성형 AI로 사용할때 주의해야 되는 점이 무엇인지, 저작권이 뭔지 등을 포괄적으로 다루고 있다"며 "AI 윤리 도덕을 인지하는 나이대가 보통 성인이 넘어서인데, 사회적으로 문제되는 부분들을 좀 빠른 시기에 인지 해야 된다고 생각했다"고 설명했다. 이번 교육을 위해 LG유플러스의 임직원들이 직접 강사로 활동하면서 아이들과 소통했다. 또 피플즈의 대학생 자원봉사자 9명도 강사진으로 활동했다. 이에 약 120여명의 넘는 학생들이 교육을 받을 수 있었다. 김범준 대표는 "저번에는 고등학교에서 AI 수업을 했는데 고등학생들이다보니 수업을 이해하고 받아들이는 속도가 빨랐고, 질문 수준도 높았다"며 "중학교 친구들이 AI를 접하고 향후 진로를 선택하거나 또는 AI를 활용한 직업을 가지는 등 진로 선택의 폭을 넓히는데도 의미가 있다는 생각이 든다"고 말했다. LG유플러스와 피플즈는 향후 참여 학생들의 의견을 받아 교육프로그램의 확대 운영 여부를 검토할 예정이다. 한영섭 AI 테크랩장은 "이번 교육으로 (청소년들이) AI에 대해서 조금 어렴풋이라도 이런 거구나를 좀 이해하고 성장하는 과정에 있어 도움이 됐으면 한다"며 "앞으로도 이런 교육 사업이 계속 지속됐으면 하는 바람이 있다"고 말했다.

2024.12.01 10:43최지연

'AI 서울 기업 서약' 참여한 6개사, 안전 개발 환경 조성

지난 5월 '인공지능(AI) 서울 기업 서약'에 참여한 네이버, LG AI연구원, 카카오 등 국내 6개 기업이 지난달 AI 위험관리 프레임워크 구축을 마쳤다. 과학기술정보통신부는 26일 서울 용산구 전쟁기념관에서 'AI 신뢰·안전성 컨퍼런스'를 개최하고 이런 산업 정책 동향을 공유했다. 이날 행사에는 서울 기업 서약에 서명한 국내 6개 기업 관계자가 모두 참석했다. AI 서울 기업 서약은 기업들이 지난 5월 'AI 서울 정상회의' 개최에 맞춰 책임 있는 AI 개발을 추진한다는 내용을 담은 발표다. 우선 네이버는 지난 6월 'AI 세이프티 프레임워크(ASF)'를 구축했다고 발표했다. 여기에는 평가 대상, 시스템 도메인 분야에 대한 고려, 내부 거버넌스, 협업 구조에 대한 내용이 담겨있다. 또 프론티어 AI 위험을 모델 자체로부터 오는 통제력 상실 위험, 악의적 의도를 가진 사용자로 인한 악용 위험으로 나눠서 접근할 필요성도 제기했다. 발표를 진행한 네이버 허상우 연구원은 "ASF는 프론티어 AI 모델과 관련한 위험 관리 체계에 대한 약속"이라고 강조했다. 카카오도 지난달 'AI 세이프티 이니셔티브(ASI)' 구축을 마쳤다고 발표했다. ASI는 AI 서비스 리스크를 사전 평가·관리하기 위한 전사적 리스크 관리 시스템이다. 카카오는 서비스 개발 시 리스크 관리 사이클을 수행하고 그 결과를 전사 리스크 관리 위원회를 통해 검토한 뒤 최종적으로 CEO 승인을 받아 출시한다. 카카오 김경훈 이사는 "ASI를 통해 AI 리스크뿐 아니라 모든 카카오 서비스 리스크를 다룰 것"이라고 강조했다. LG AI연구원은 내년 3월부터 AI 위험을 미리 파악하고 해결하는 'AI 윤리 영향 평가'를 모든 프로젝트에 적용한다고 밝혔다. 또 내년 상반기 유네스코와 협업해 만든 AI 윤리교육(MOOC) 가이드라인 제작도 마칠 예정이라고 했다. 이 외에도 KT와 SKT, 삼성전자도 AI 위험성을 줄일 수 있는 프레임워크 구축 진행 상황을 설명했다. 과기정통부 송상훈 정보통신정책실장은 "민간 자율에 기반한 책임 있는 AI 개발·활용 문화가 확산할 수 있도록 정책 지원을 강화할 것"이라며 "첨단 AI의 잠재적 위험에 대비해 AI 안전연구소를 출범하고 체계적으로 대응해 나가겠다"고 밝혔다.

2024.11.26 16:19김미정

벤지오 교수 "AI안전연구소, 정책·과학 발전 병행 필수...韓 AI칩 수준 상당"

한국 정부가 인공지능(AI)안전연구소 개소를 하루 앞둔 가운데 해당 연구소가 AI 정책과 과학 발전을 병행해야 한다는 전문가 주장이 나왔다. 몬트리올대 요슈아 벤지오 교수는 26일 과학기술정보통신부가 용산 피스앤파크컨벤션에서 개최한 'AI 신뢰·안전성 컨퍼런스' 온라인 기조강연에서 한국의 AI안전연구소 방향성을 제시했다. 벤지오 교수는 최근 국가AI위원회 글로벌 자문위원으로 활동 중이다. 벤지오 교수는 연구소가 정책적으로 국제협력뿐 아니라 AI 규제 체계까지 유연하게 구축해야 한다고 당부했다. 신속한 규제 시스템은 AI 기술 오용·사회적 위협 방지를 막을 수 있기 때문이다. 그는 "급변하는 AI 기술 환경에 맞춰 규제도 더 민첩해야 한다"며 "특히 규제기관은 AI 모델 개발사와 사용 기업들의 안전 계획과 모델 테스트 결과를 직접 검토해야 한다"고 강조했다. 벤지오 교수는 연구소가 해외 안전연구소·학자들과 필수 협력해야 한다고 주장했다. 이를 통해 AI 안전에 대한 국제 모범 사례를 접할 기회가 높아진다는 이유에서다. 그는 "최첨단 기술을 다루는 연구소들과 협력하면 국가 안보와 연결된 위험 요소를 상대 평가할 수 있다"고 설명했다. 벤지오 교수는 한국이 글로벌 AI 생태계서 핵심 역할을 할 가능성을 높게 봤다. 그는 "한국은 AI칩 개발 선두주자"라며 "AI안전연구소 설립과 관련한 국제 협력에서 주요 역할을 할 것"이라고 덧붙였다. 이날 카이스트 오혜연 전산학부 교수는 디지털 격차 해소를 위해 '포용적 AI' 중요성을 강조했다. AI 기술이 다양한 언어와 문화를 아우르는 방향으로 발전해야 한다는 이유에서다. 오 교수는 "AI가 영어에만 최적화되면 한국, 일본, 중국 같은 비영어권 사용자는 부정확한 정보에 노출될 수 있다”며 "AI가 다양한 언어와 문화적 인식을 반영해야 디지털 전환의 진정한 포용성을 실현할 수 있다"고 설명했다. 그는 포용적 AI 실현을 위해 다중언어 연구를 적극 추진 중이라고 했다. 최근 거대언어모델(LLM) 연구 트렌드 중 하나로 알려졌다. 오 교수는 "포용적 AI는 단순히 AI 접근성 높이는 것을 넘어 글로벌 교류와 디지털 경제 활성화를 도울 수 있을 것"이라고 강조했다.

2024.11.26 13:04김미정

무하유, 올바른 생성형 AI 사용법 가르친다

무하유가 올바른 생성형 인공지능(AI) 사용법 알리기에 나섰다. 무하유는 '카피킬러 에듀'에 생성형 AI 활용 교육 영상을 업데이트했다고 19일 밝혔다. 카피킬러 에듀는 무하유에서 운영하는 연구 윤리 교육 포털이다. 학습 윤리와 연구 윤리에 관한 전문 교육을 제공한다. 카피킬러를 도입한 기관·학교에서 누구나 무료로 연구 윤리 교육을 받을 수 있도록 강의를 제공하고 있다. 이번에 업데이트된 교육 영상은 총 3편이다. 한양대 이상욱 교수가 기획 단계부터 참여해 생성형 AI의 윤리적 쟁점과 올바른 활용법을 강의한다. 생성형 AI를 사용하는 교사·교수와 학생들의 윤리적 책임감을 재고하기 위해 제작됐다. 잘못된 생성형AI 활용으로 인한 윤리 문제 및 올바른 활용법을 설명한다. 그동안 무하유는 생성형 AI의 무분별한 사용을 막고 올바른 활용을 돕고자 GPT킬러를 개발·운영해 왔다. GPT킬러는 AI가 문서를 문단 단위로 분석한 후 각 부분에서 생성형 AI로 작성됐을 확률을 판단한다. 생성형 AI를 잘 사용하는 게 경쟁력이 된 현 상황에서 학생들이 교육 목적에 어긋날 정도로 AI를 남용하지 않도록 지도하며, 올바른 글쓰기 습관을 들일 수 있도록 교육하는 데 사용되고 있다. GPT킬러를 통해 교수·교사뿐만 아니라 학생들도 과제물이나 논문 등을 제출하기 전 자체적으로 표절 검사를 진행함으로써 생성형 AI로 인한 표절을 미리 예방하고, 학습 윤리를 준수할 수 있다. 실제 다수 고등학교·대학교에서 학생들의 학업 역량을 공정하게 평가하고, AI 사용 윤리를 일깨워주고자 GPT킬러를 도입해 활용 중이다. 올해 GPT킬러 도입을 결정한 한 대학에서는 한 학기 동안 GPT킬러에서 검사된 문서가 1만843건으로 집계됐다. 검사된 문서의 80.4%는 과제물이었다. 많은 학생이 과제물 제출 전 자발적으로 검사를 진행하며 표절 가능성을 사전 예방하는 것으로 알려졌다. 신동호 무하유의 대표는 "GPT킬러와 관련 교육영상 등을 통해 생성형 AI를 윤리적으로 활용할 수 있도록 지원할 것"이라며 "무분별한 사용을 방지하는 길잡이 역할을 충실히 수행할 것"이라고 밝혔다.

2024.11.19 10:49김미정

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

테슬라, 韓서 완전자율주행 시동...정부 출신 인력 영입 나서

美 소액 물품 면세 폐지에…테무·쉬인, 사용자 수 급감

[써보고서] 갤럭시 S25 엣지, 뒷주머니에 넣었더니...한계 넘은 혁신

"엔비디아 비켜"...MS, 11개월 만에 사상 최고가로 시총 1위 탈환

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현