• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'윤리'통합검색 결과 입니다. (67건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

기상산업기술원 등 7개 기관, 청렴·윤리·인권 실천에 뜻 모아

대전지역 7개 공공기관이 청렴·윤리·인권 가치 실천을 위해 한자리에 모였다. 한국기상산업기술원(원장 황명균)은 국민건강보험공단 대전중부지사·대전사회서비스원·대전신용보증재단·대전평생교육진흥원·소상공인시장진흥공단·한국산림복지진흥원 등 기관과 지난해에 이어 올해도 공동으로 '청렴한빛네트워크 청렴·윤리·인권 실천 결의대회'를 개최했다. 7개 공공기관은 지난 7일과 8일 양일간 약 140명의 임직원이 참석한 가운데 공공기관의 반부패·청렴 의지와 인권 존중 조직문화 실천 의지를 대내외에 천명했다. 결의대회에서는 청렴 실천 선언 이후 ▲반부패 청렴교육 ▲청렴 골든벨 퀴즈 등 프로그램이 이어져, 참여 임직원의 청렴의식을 자연스럽게 높일 수 있도록 구성됐다. 8일에는 지역축제인 '0시 축제' 행사장 일대에서 시민을 대상으로 한 청렴·윤리·인권 캠페인을 전개하며, 공공기관의 사회적 책임과 역할을 홍보하는 시간을 가졌다. 황명균 한국기상산업기술원 원장은 “대전 내 공공기관이 협력해 청렴·윤리·인권 실천 결의대회를 추진하는 등 지속적으로 문화를 확산하기 위해 노력하고 있다”며 “앞으로도 다양한 활동을 통해 시민 여러분께 신뢰를 향상하는 데 최선을 다하겠다”고 말했다. 한편, '청렴한빛네트워크'는 지난해 공동사업의 일환으로 총 6회에 걸친 실무협의회 운영을 비롯해 ▲기관장 합동 청렴 결의 서약 ▲갑질 예방, 이해충돌 방지, 공공재정 환수 등 주제별 비대면 합동 캠페인 ▲합동 청렴 캠페인 ▲반부패 주간 합동 운영 ▲합동 청렴교육(152명 참여) 등 6개 사업을 성공적으로 추진한 바 있다.

2025.08.11 12:00주문정

KT클라우드, 윤리·준법경영 '글로벌 인증' 동시 획득

KT클라우드가 글로벌 수준의 윤리·준법경영 체계를 갖춘 기업으로 공식 인정받았다. KT클라우드는 국제표준화기구(ISO)가 제정한 '부패방지 경영시스템(ISO 37001)'과 '규범준수 경영시스템(ISO 37301)' 인증을 통합 취득했다고 8일 밝혔다. ISO 37001은 조직의 부패 리스크를 사전에 식별하고 이를 방지·관리하기 위한 시스템 구축을 요구하는 국제 표준이며 ISO 37301은 기업의 규범 준수 체계가 글로벌 수준의 요구사항에 따라 수립·운영되고 있는지를 검증하는 경영시스템이다. 두 인증은 기업의 윤리 및 준법 수준을 객관적으로 입증하는 대표적인 지표로 활용된다. KT클라우드는 해당 인증을 동시에 취득하며 글로벌 기준에 부합하는 부패방지 및 준법경영 체계를 구축하고 운영할 수 있는 역량을 공식적으로 인정받았다. 이를 바탕으로 급변하는 외부 환경과 복잡해지는 규제 상황에 선제적으로 대응하고 대내외 리스크를 체계적으로 관리하며 투명한 경영을 통해 사업 경쟁력을 강화해 나간다는 계획이다. KT클라우드는 윤리경영원칙과 준법통제기준을 제정하고 체계적으로 원칙과 기준 준수 여부를 점검해 윤리·준법경영을 기업 행동의 원칙으로 실천해 오고 있다. 또 KT 그룹사 차원의 컴플라이언스 컨설팅 및 진단을 통해 실질적인 준법·윤리 경영 체계를 강화해왔다. 최지웅 KT클라우드 대표는 "ISO 37301과 ISO 37001 통합 인증은 단순한 제도 도입을 넘어 글로벌 수준의 윤리·준법경영 체계를 갖추고 이를 실천하고 있음을 입증하는 중요한 성과"라며 "앞으로도 고객사·협력사와의 신뢰를 더욱 공고히 하고 업계를 선도하는 투명한 경영 환경을 지속적으로 유지해 나가겠다"고 말했다.

2025.08.08 15:03한정호

KISDI, '제4기 AI 윤리정책 포럼' 발족…23인 전문가 위촉

정보통신정책연구원(KISDI)은 과학기술정보통신부와 함께 지난달 31일 서울 중구 포스트타워에서 '제4기 인공지능(AI) 윤리정책 포럼' 출범식을 개최했다고 4일 밝혔다. 이번 행사는 AI 기술 주권 시대에 걸맞은 책임 있는 윤리 기반 마련과 '모두의 AI'를 실현하기 위해 마련됐다. 제4기 'AI 윤리정책 포럼'은 다양한 이해관계자들이 참여하는 사회적 논의의 장으로 운영됐다. ▲최신 국내외 AI 윤리‧신뢰성 이슈에 대한 대응 전략 ▲국민 체감형 정책 설계 ▲AI 3대 강국 도약을 위한 범부처 정책과제 발굴 논의 등 기술·정책·사회 간 가교 역할을 하는 거버넌스 체계를 지향한다. 이날 포럼에는 지난 1월 21일 공포된 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'(AI 기본법)의 시행과 새 정부의 소버린AI 전략에 발맞춰 학계, 산업계, 시민사회, 법조계 등 전문가 23명이 참여했다. 포럼위원장에는 문명재 연세대 행정학 교수로 위촉됐다. 이번 출범식에서는 AI 발전 흐름 속에서 윤리적 기반과 공공 신뢰를 함께 확보하는 방안을 모색했다. 또한 AI 기반 서비스의 윤리적 영향력 식별과 합리적 관리를 지원하기 위한 연구 결과를 발표했다. 주요 내용은 ▲AI 윤리영향평가(영상 합성 서비스 대상) ▲AI 윤리기준 실천을 위한 자율점검표 ▲산업계 실무자를 위한 AI 윤리 교육 콘텐츠 등이다. 이상규 KISDI 원장은 “최근 AI 기술 발전 에 따라, 인간 노동의 소외 등 사회구조적 변화가 가속화되고 있다”며 “AI의 윤리적 활용을 넘어 AI의 사회적 파급효과에 대응하는 방향으로, 본 포럼이 사회적 논의의 구심점 역할을 해주길 바란다”고 밝혔다.

2025.08.04 17:27진성우

KT, 청소년 대상 여름방학 AI윤리캠프 열어

KT가 한국지능정보사회진흥원(NIA), 교보교육재단과 함께 지난달 31일 서울 광진구 세종대학교에서 전국에서 선발된 중학생 80명을 대상으로 AI, 디지털 윤리 토론 캠프 'AI윤리 ON!'을 개최했다고 1일 밝혔다. 청소년들이 AI와 디지털 기술의 윤리적 쟁점을 주도적으로 탐구하고 토론하면서 스스로 윤리적 관점을 형성할 수 있도록 기획된 캠프다. NIA의 디지털 윤리 교육 콘텐츠와 교보교육재단의 청소년 토론 프로그램, KT 대학생 IT 서포터즈(KIT)의 체험형 활동이 결합된 민관협력 프로그램이 진행됐다. KT 대학생 IT 서포터즈(KIT)는 AI 기본 개념부터 알고리즘 원리, 데이터 편향 등 어려운 주제를 다양한 컨텐츠와 퀴즈 형식의 진행으로 학생 눈높이에 맞춰 교육했다. 또 토론과 보드게임 형식을 융합해 개발한 AI 모의법정 게임을 통해 윤리적 이슈를 함께 고민하고 논의하는 등 활동 중심의 교육으로 학습 효과를 높였다. '딥페이크'를 중심으로 생성형 AI 기술이 사회 전반에 미치는 영향을 다각도로 분석하고, 토론을 통해 윤리적인 활용 방안을 함께 모색하는 교육도 진행됐다. 학생들은 딥페이크의 개념과 활용 사례, 관련 법 제도, 범죄 예방 및 대응 방안을 학습하고, 조별 토론을 통해 서로의 생각과 의견을 공유하며 올바른 디지털 윤리 의식을 함양하는 시간을 가졌다. KT는 2023년부터 전국 교육청, 지자체와 협력해 AI·디지털 윤리 관련 사회공헌의 일환으로 11만명의 초등·중학생을 대상으로 디지털 시민 교육을 진행했다. 올해부터는 도서산간 지역 청소년 대상으로 AI 윤리와 연계한 코딩 수업과 이동형 AI 체험관 'AI Station'을 통해 딥페이크· 가짜뉴스를 주제로 한 찾아가는 교육 프로그램을 운영하고 있다. 오태성 KT ESG경영추진실 상무는 “AI 시대에는 청소년들이 기술의 활용만이 아니라 윤리적 판단과 책임감 갖추는 것이 중요하다”며 “디지털 접근성이 낮은 청소년들을 위한 다양한 AI 윤리 교육을 통해 디지털 포용성을 확대하는 데 앞장 서겠다”고 말했다.

2025.08.01 10:50박수형

27일까지 디지털윤리 주간 캠페인 진행

올바른 디지털 이용 문화에 대한 이해와 공감대를 널리 확산시키기 위한 디지털윤리 캠페인이 시작된다. 방송통신위원회와 한국지능정보사회진흥원은 21일 '2025 디지털윤리 주간 캠페인'을 오는 27일까지 일주일간 진행한다고 밝혔다. 디지털윤리를 직접 체험하고 실천할 수 있도록 제주‧부산 등 해수욕장에서 진행되는 '피서지 캠페인'과 서울‧판교 등 직장인 대상 '커피차 행사' 등 다양한 직접 참여형 프로그램으로 운영된다 이와 함께 SNS와 메타버스 등 일상 속에서 쉽게 디지털윤리에 관심을 갖고 실천할 수 있도록 '온라인 캠페인'도 진행할 예정이다. 우선 휴가철을 맞아 오는 23일 제주 이호테우해수욕장과 25일 부산 송정해수욕장에서 디지털윤리 OX퀴즈, 유튜브 구독 행사 등 '피서지 캠페인'을 진행한다. 많은 피서객이 찾는 여름 바닷가에서 디지털윤리를 생각해 볼 수 있는 점이 눈길을 끈다. 21일 서울 청계천과 24일 판교 테크노밸리에서는 커피차와 함께 디지털윤리 실천 캠페인을 운영한다. 커피나 간식을 나누며 '직장 내 AI 윤리인식 투표 캠페인'을 벌여 일상적인 업무환경 속에서 책임있는 인공지능 이용의 중요성을 돌아볼 수 있는 계기를 제공하고자 한다. 디지털윤리 홈페이지와 한국지능정보사회진흥원 인스타그램, 유튜브 '아름다운 디지털 세상'에서도 다양한 참여형 행사가 열린다. 방통위는 디지털윤리 주간과 함께 오는 10월까지 수시로 참여할 수 있는 '디지털윤리 도장찍기' 행사도 운영한다.

2025.07.21 16:15박수형

전기안전공사, '사람 중심' AI 윤리원칙 첫 제정

한국전기안전공사(대표 남화영)는 인공지능(AI) 기술의 사회적 확산에 따른 기술 활용 윤리 기준 마련을 위해 'AI 윤리원칙'을 제정했다고 19일 밝혔다. 최근 공공기관을 포함한 전 산업분야에서 생성형 AI 활용이 빠르게 확산하면서 기술 활용에 수반되는 윤리적 위험 예방과 신뢰성 확보가 사회 주요 이슈로 대두됨에 따른 선제적 조치다. 전기안전공사가 제정한 AI 윤리원칙은 ▲인간 존엄성 ▲공공성 ▲다양성 존중 ▲투명성 ▲데이터 관리 ▲신뢰성 및 개인정보보호 ▲인간의 감독 ▲안전성 ▲윤리적 활용 ▲협력 및 연대성 등 10대 핵심가치를 담았다. 10대 핵심가치는 유네스코(UNESCO)와 경제협력개발기구(OECD) 등 국내외 주요 기준과 연구 결과를 바탕으로 마련됐다. 핵심가치는 전기안전공사의 경영이념인 '사람존중 열린경영'을 실현하는 새 윤리원칙이자 디지털 체계 구축 길잡이로 활용될 예정이다. 전기안전공사는 앞서 지난해 AI 기술을 활용한 AI 사원 '이바름(e-바름)' 프로그램을 개발해 감사업무를 비롯한 예산·노무·인사 관리 등 분야 업무 효율성을 높였다. 전기안전공사는 이러한 노력을 인정받아 국민권익위원회가 후원하는 윤경ESG포럼에서 '윤리경영 우수상'을 수상하기도 했다. 남화영 전기안전공사 사장은 “공공부문에서 인공지능 기술을 활용함에 있어 가장 중요한 것은 안전성과 신뢰성”이라며 “AI 윤리원칙 제정을 시작으로 국민에게 신뢰받는 전기안전 기술 서비스 제공을 위해 힘쓸 것”이라고 밝혔다.

2025.06.19 15:18주문정

국제인공지능윤리협회, 경북 청소년 AI 경연 개최…"기술 이해하는 세대가 이긴다"

국제인공지능윤리협회(IAAE)가 경북 지역 청소년을 대상으로 생성형 인공지능(AI)을 활용한 창의력 경연대회를 연다. AI의 윤리적 활용 역량을 조기에 길러 교육 격차를 줄이고 기술 친화적 학습 문화를 정착시키겠다는 포부다. 국제인공지능윤리협회는 다음달 5일 경북 안동국제컨벤션센터에서 '생성형 AI 크리에이티브 경연대회'를 개최한다고 14일 밝혔다. 본 행사는 안동시와 한국정신문화재단이 주최하고 EBS와 안동국제컨벤션센터가 공동 주관하는 '2026 진학 드림캠퍼스 IN 안동'의 일환으로 진행된다. 이번 대회는 안동·경북 지역의 예비 고등학생 및 고등학교 재학생을 대상으로 하며 선착순 50팀을 모집한다. 팀은 개인 또는 2인 1팀으로 구성 가능하며 참가자는 사전교육을 수료한 뒤 예선과 본선, 심사를 거쳐 시상받게 된다. 총 10개 팀이 수상 대상으로 선정되며 수상자에게는 안동시장상, EBS 사장상, 국제인공지능윤리협회 이사장상, 장려상 등이 수여된다. 비수상자 전원에게도 참가상이 지급되며 수상작은 협회 홈페이지에 전시돼 우수 사례로 소개된다. 참가 신청은 국제인공지능윤리협회 홈페이지를 통해 가능하며 생성형 AI에 대한 기본 교육부터 시작해 실제 창작까지 이어지는 구조로 설계됐다. 협회 측은 기술 습득과 함께 윤리적 판단 능력을 함께 키울 수 있도록 구성했다고 밝혔다. 이번 경연은 지역 청소년에게 AI를 활용한 실전 경험을 제공하는 동시에 급변하는 교육 환경 속에서 균형 잡힌 AI 리터러시 교육 모델을 실험하는 시도로 평가된다. 생성형 AI의 비약적 확산에 따라 지역 간 교육 기회의 편차를 줄이려는 취지도 있다. 본 경연이 포함된 'EBS와 함께하는 2026 진학 드림캠퍼스 IN 안동' 행사는 지역 학생과 학부모를 위한 입시 전략 설명회 성격의 행사다. 이 자리에서는 EBS 진학 전문 교사의 맞춤형 대학입시 상담, 국영수 학습 전략 강연, 고교학점제 및 대입 설명회, 과학커뮤니케이터 '궤도'의 진로 특강 등 기타 프로그램도 함께 운영된다. 전창배 국제인공지능윤리협회 이사장은 "생성형 AI는 이제 일상과 교육 현장에서 빠질 수 없는 도구가 됐다"며 "이번 대회를 통해 학생들이 AI와 협업하는 방법을 배우고 윤리적 인식을 갖춘 미래 인재로 성장하길 기대한다"고 밝혔다.

2025.06.14 21:15조이환

방통위, 디지털윤리 창작콘텐츠 공모

방송통신위원회는 한국지능정보사회진흥원과 함께 '2025년 디지털윤리 창작콘텐츠 공모전'을 개최하고 10월2일까지 작품 접수를 진행한다고 밝혔다. 디지털 역기능으로부터 안전을 지키고 올바르게 디지털을 이용하기 위해 갖춰야 할 기본적 소양인 '디지털윤리'를 주제로 진행되며, 이에 대한 콘텐츠 기획‧제작 과정을 통해 국민 관점의 디지털윤리 인식제고 및 교육 콘텐츠를 발굴한다. 공모 분야는 '인식제고 콘텐츠'와 '학습 콘텐츠' 두 개 분야로 나눠 진행된다. 인식제고 콘텐츠 분야는 ▲그림일기(초등학생) ▲포스터 ▲카드뉴스 ▲디지털 만화(웹툰) ▲동영상(일반영상, 숏폼)을 공모하며, 학습 콘텐츠 부문은 교과 연계 및 창의적 체험활동의 교수 학습지도안을 모집한다. 특히 최근 중요하게 인식되는 인공지능 윤리에 대한 관심을 높이기 위해 '첨단조작기술영상 기술의 부작용 또는 올바른 활용 방안'과 '생성형 인공지능 개발 및 활용 시 윤리적 문제'를 다룬 작품에 가점을 부여한다. 청소년과 성인, 군장병, 교사 및 예비교사 등 대한민국 국민 누구나 참여할 수 있으며, 개인 또는 3명 이내 팀으로 지원할 수 있다. 심사는 오는 10월 형식요건 및 규격에 대한 심사를 거쳐 외부전문가 심사단의 본심사, 국민참여심사를 포함한 상훈심사를 통해 순위가 결정된다. 오는 12월 '2025년 디지털윤리대전'을 통해 최종 수상자를 발표할 예정이며 대통령상, 국무총리상, 방통위원장상, 교육부장관상, 국방부장관상 등 총 25점을 선정한다. 수상작은 디지털윤리 홈페이지에 공개하며 관련 SNS 콘텐츠 제작 등 디지털윤리 교육 및 홍보에 활용될 예정이다.

2025.06.02 09:37박수형

과기정통부-AI 안전연구소, AI 주도권 전략 공개…"산업·리스크 동시 대응"

인공지능(AI) 기술이 국가 전략의 중심축으로 부상한 가운데 정부기관이 기술 리스크와 산업 경쟁력 양면을 짚는 자리가 마련됐다. AI 인프라 확충과 인재 육성에 나선 정부, 기술 신뢰성과 안전 기준을 제시한 연구기관 모두 '위험 관리'를 전제로 한 성장 전략에 공감대를 드러냈다. 국제인공지능윤리협회(IAAE)는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC)' 컨퍼런스를 개최했다. 이날 행사에는 과학기술정보통신부(과기정통부)와 AI 안전연구소를 비롯해 LG유플러스, 주요 스타트업 등 공공과 민간 주요 주체들이 참여했다. 이날 공공부문 발표에서는 공진호 과학기술정보통신부 인공지능기반정책과장이 정부의 AI 육성 전략과 인프라 투자 방향을 설명했다. 이어 김명주 AI 안전연구소장이 기술 리스크 분류 체계와 글로벌 안전 기준 정립의 필요성을 짚었다. 과기부 "GPU·인재·모델 3축 강화…1.9조로 산업기반 재편할 것" 이날 '대한민국의 AI 정책 대응'을 주제로 발표에 나선 공진호 과학기술정보통신부(과기정통부) 인공지능기반정책과장은 글로벌 경쟁 환경에서 한국이 직면한 현실과 정부의 대응 전략을 짚었다. 공 과장은 발표 서두에서 딥시크 등장 이후 AI 패권 경쟁이 새로운 국면으로 접어들었다고 진단했다. 미국의 '스타게이트' 프로젝트, 유럽연합(EU)과 프랑스의 대규모 투자 발표, 중국의 기술 진보 등을 언급하며 글로벌 주도권 경쟁이 양적 확대를 넘어 질적 전환기에 접어들었다고 분석했다. 그는 "한국의 현주소를 두고 보면 미국과 중국 등 선도국과는 여전히 격차가 존재한다"면서도 "자체 모델 개발 수, 특허와 논문 성과 등을 고려할 때 싱가포르, 이스라엘, 프랑스 등과 함께 3위권 수준의 경쟁력은 확보하고 있다"고 평가했다. 이 격차를 좁히기 위한 첫 번째 대응으로 정부는 AI 컴퓨팅 인프라 확충에 나선다. 광주 AI 데이터센터를 중심으로 엔비디아 'H100' 그래픽처리장치(GPU) 416장을 확보해 임대 공급할 예정이며 민간 클라우드 자원까지 동원해 연내 총 1만 장 이상을 확보하겠다는 계획이다. 정부는 국산 AI 반도체 생태계 구축에도 힘을 싣는다. 퓨리오사, 리벨리온 등 국내 기업 중심으로 실증 프로젝트를 추진해 오는 2030년까지 국산 반도체 활용 비중을 절반 이상으로 끌어올리겠다는 목표다. 이와 함께 AI 인프라 투자에 대한 세제 혜택도 대폭 확대된다. 또다른 축은 차세대 모델 개발이다. '월드 베스트 거대언어모델(LLM)' 프로젝트를 통해 경쟁력 있는 팀을 선발하고 여기에 GPU, 데이터, 인재 등 핵심 자원을 집중 투입한다. 3년 내 글로벌 상위권 LLM을 확보한다는 목표다. 이와 연계해 AI 챌린지도 개최된다. 고급 인재 확보를 위한 전략도 제시됐다. 뉴욕대와 협력해 만든 '글로벌 프런티어 랩'을 시작으로 유럽과 중동으로 거점을 확대하고 실무형 인재 양성을 위한 이노베이션 아카데미와 AI 융합대학원 설립도 추진된다. 해외 우수 인재 유치를 위한 인센티브 설계도 병행된다. 산업 전환 지원도 주요 정책 중 하나다. 제조, 의료, 법률, 문화 등 다양한 분야에서 공공수요를 기반으로 AI 도입을 촉진하고 수요기업과 공급기업의 매칭을 통해 생태계를 활성화한다는 구상이다. 이를 위해 여러 부처와 공동으로 대규모 플래그십 프로젝트도 준비 중이다. 1조9천억원 규모의 AI 추경 예산에 대한 세부 집행 계획도 공개됐다. GPU 확보에 1조6천억원, 반도체 실증에 900억원, 정예팀 LLM 지원에 2천억원, 인재 육성 프로그램에 400억원, 벤처 캐피털(VC) 연계 펀드에 1천억원 등으로 세부 배분이 이뤄진다. 공진호 과기정통부 과장은 발표를 마치며 "내년에 시행되는 AI 기본법은 산업 진흥과 신뢰 확보를 균형 있게 담은 법안"이라며 "고영향 AI에 대한 고지 의무와 사업자 책임 등을 중심으로 한 규제 조항은 하위 법령에서 구체화될 예정"이라고 밝혔다. 이어 "업계 부담 최소화를 최우선으로 법령 설계를 진행 중"이라고 강조했다. AI 안전연구소 "AI 리스크 해소는 경쟁력…英과 보안 협력 확대한다" 이어 발표에 나선 김명주 AI 안전연구소장은 AI 기술의 위험성과 이를 둘러싼 국제적 대응 흐름을 짚으며 기술 안전성과 사회적 신뢰 확보의 필요성을 강조했다. 그는 AI 위험을 단순한 규제 이슈가 아닌 '글로벌 경쟁력의 조건'으로 봐야 한다고 봤다. 김 소장은 '챗GPT' 등장 이후 AI 기술의 파급력이 전통적 거대 기업의 질서를 뒤흔든 과정을 되짚으며 발표를 시작했다. 오픈AI가 만든 기술이 구글의 검색 패러다임을 위협한 사례를 통해 예측 불가능한 기술 변화가 산업과 정책의 균형을 흔들 수 있음을 경고했다. AI 시스템의 잠재적 리스크에 대한 국제적 분류 기준도 소개됐다. 김 소장에 따르면 EU는 시스템 위험 수준에 따라 AI를 구분하고 있으며 특히 'GPT-4' 수준의 고성능 모델은 '시스템 리스크'로 분류된다는 점에서 제도적 대응이 시급하다 그는 영국, 미국, MIT 등 주요 기관들의 리스크 정의도 언급했다. 단순한 기술적 오류를 넘어서 악용 리스크, 사회적 불평등 심화 등 다차원적 위험 요소가 존재하며 AI 리스크는 정량적 분석과 경험 기반 데이터 축적을 통해 관리돼야 한다는 것이다. 김 소장은 "우리 연구소 역시 '리스크 맵'을 구축하는 작업을 시행하고 있다"며 "MIT와 협업해 축적한 1천700여 개 사례를 기반으로, 기술·의도·사고 시점에 따른 분류 체계를 수립 중이며 이를 통해 구체적인 평가 도구와 안전 보고서를 생산하고 있다"고 설명했다. AI 평가 방식에 대해서도 언급됐다. 연구소는 물리적 제품, 임베디드 모델, 챗봇 등 다양한 형태의 AI에 대해 실제 사용 맥락에서 리스크를 분석하고 전담 인력이 결과를 검토하거나 AI 기반 평가 도구로 통합 평가를 수행하는 체계를 갖추고 있다. 특히 외국계 모델에 대한 검증 사례도 소개됐다. 중국 딥시크의 정치적 편향 사례를 예로 들어 불완전한 AI를 활용할 경우 발생할 수 있는 오용 가능성과 편향 전파 리스크를 지적하고 이를 중화시키는 파인튜닝 기법 등을 연구소가 제공하고 있다고 밝혔다. 이 과정에서 AI 개발사와 협약을 맺고 기밀 유지 하에 평가를 진행한다. 김 소장은 "우리는 '규제자'가 아닌 '조력자'로서의 역할을 수행한다"며 "국내 기업이 글로벌 수준의 안전 기준을 갖추고 기술 수출 경쟁력을 확보할 수 있도록 지원하는 기능에 방점을 찍었다"고 말했다. 향후 역할 확대 가능성에 대해서도 입장을 밝혔다. 영국 AI안전연구소처럼 '보안'과 '안보' 기능까지 포괄할지에 대한 기자의 질문에 김명주 AI 안전연구소장은 "지난번 파리 정상회담에서 영국 AI 안전연구소 측과 만나 들은 바에 따르면 이 조직도 인력 부족을 겪어 선택과 집중 중"이라며 "우리는 일단 안전이 가장 포괄적 개념으로, 명칭과 구조는 유지할 예정"이라고 말했다. 이어 "영국과 보안 분야 전략적 협력 추진 중으로, 내부적으로도 관련 인력 보강과 기능 확대를 계획하고 있다"고 밝혔다.

2025.05.27 17:21조이환

[현장] "AI 도입, 기술만큼 신뢰·안전도 중요"…기업이 갖춰야 할 조건은?

국내 인공지능(AI) 기업들이 생성형 AI 도입에 있어 기술만큼이나 신뢰성과 안전성을 우선 과제로 제시했다. 국제인공지능윤리협회(IAAE)는 27일 서울 삼성동 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC) 컨퍼런스'를 개최했다. '변화하는 AI 환경에서의 기업 경쟁력 확보'를 주제로 열린 이번 행사에는 셀렉트스타, LG유플러스, 원티드랩, AI3 등 공공·민간 주요 조직들이 참여했다. 이날 황민영 셀렉트스타 부대표는 생성형 인공지능(AI)을 도입할 때 핵심은 기술력 자체보다 신뢰성과 안전성을 정량적으로 평가하고 관리할 수 있는 체계를 갖추는 데 있다고 강조했다. 특히 산업 특성과 조직의 정책에 맞춘 맞춤형 벤치마크와 '레드팀' 검증이 도입 여부를 좌우하는 만큼, 단순한 모델 성능보다 사전 평가 체계의 구축이 더 시급하다고 진단했다. 황 부대표는 LLM 평가 방식으로 크게 세 가지 접근법을 제시했다. 객관식 기반의 벤치마크인 '자동평가', 사람이 직접 점수를 매기는 '휴먼 평가', 모델이 다른 모델을 평가하는 LLM 기반 평가다. 현업에서는 이 세 방식을 혼합해 쓰고 있으며 시험지처럼 만드는 벤치마크는 빠르고 효율적이고 LLM 평가는 반복 작업을 대체하는 수단으로 유용하다. 또 그는 기업의 도입 결정에서 신뢰성 문제로 LLM을 도입하지 못하는 경우가 빈번하다는 점을 지적했다. 대기업 챗봇이 경쟁사 제품을 추천한 사례나 해외 항공사 챗봇이 잘못된 가격 정보를 안내해 법적 책임을 지게 된 사례처럼 잘못된 출력으로 인한 금전적·법적 손해가 현실화되고 있다는 것이다. 이같은 문제를 해결하려면 도입 전 신뢰성 검증 체계가 필수적이라는 게 황 부대표의 판단이다. 기업별 정책과 업무 목적에 따라 정확성·정책 적합성·유해성 등 다양한 기준을 사전에 마련하고 반복 검증을 통해 모델의 응답 수준을 평가해야 한다는 것이다. 여기에 더해 위장된 질문을 활용해 잠재적 위험 발화를 사전에 탐지하는 '레드팀' 방식의 검증도 병행해야 한다. 셀렉트스타는 지난 2018년 설립된 이후 이 같은 과제를 해결하기 위해 평가 데이터셋 구축, 레드팀 챌린지 운영, 맞춤형 테스트 설계 등을 수행해 왔다. 최근에는 자동화 솔루션 '다투모 이밸(DATUMO eval)'을 통해 기업별 LLM을 체계적으로 검증하고 있다. 황민영 셀렉트스타 부대표는 "AI가 답변을 잘 요약했는지, 정책을 따랐는지, 위험한 말을 했는지를 평가할 수 있는 기준과 매트릭스를 기업 스스로 구성해야 한다"며 "생성형 AI 도입은 더 이상 기술이 아닌 책임과 평가의 문제로 넘어갔다"고 덧붙였다. 이날 또다른 발표를 진행한 주형민 원티드랩 AX사업 총괄은 생성형 AI 도입은 기술이 아닌 통제와 책임의 문제라고 강조했다. 기술보다 조직 구조, 거버넌스 체계 정비가 우선이라는 주장이다. 주 총괄은 최근 기업들이 AI를 주요 업무에 활용하면서 에이전트 기반의 구조로 급속히 전환하고 있다고 밝혔다. 이 과정에서 오류가 누적될 경우 전체 시스템 신뢰도를 갉아먹을 수 있다고 경고했다. 그는 "복수 에이전트의 조합은 작은 오류도 누적되면 전체 리스크로 이어진다"며 "기술 성능보다 중요한 건 데이터 흐름 추적과 운영 통제"라고 강조했다. 원티드랩은 이를 반영해 에이전트 통계, 요금 통제, 사용 이력 관리 등 통제 기능을 자체 플랫폼에 구축한 상태다. 특히 민감정보 대응과 내부 사용 통제를 핵심 기능으로 삼았다. 주형민 총괄은 "AI 전담조직도 역할을 바꿔야 한다"며 "AI는 누구나 쓸 수 있어야 하며 구조가 이를 뒷받침해야 한다"고 강조했다. 이어 발표를 진행한 한영섭 LG유플러스 AI테크랩장은 AI 확산 논의가 생산성과 효율에 치우쳐 있다며 안전과 신뢰에 대한 논의가 병행돼야 한다고 강조했다. 한 테크랩장은 "AI가 실제로 도움이 되려면 먼저 안심하고 쓸 수 있어야 한다"고 말했다. 이같은 목표를 달성하기 위해 LG유플러스는 '어슈어드 인텔리전스'를 핵심 전략으로 제시했다. AI가 만든 음성을 판별해 보이스피싱 등 음성 기반 범죄를 차단하는 '안티 디보이스', 통화 내용을 서버로 전송하지 않고 기기 내에서만 처리하는 '온디바이스 LLM', 양자암호 기반의 통신 보안 기술이 그 축이다. 이 전략이 적용된 대표 서비스가 통화 에이전트 '익시오(XiO)'다. 스팸 응답, 음성 분석, 보이스피싱 탐지 기능을 AI가 수행하지만 개인정보는 모두 단말기 안에서만 처리된다. 또 AI가 생성한 텍스트나 음성, URL 링크를 탐지해 위험 여부를 사전에 차단하는 기능도 함께 개발 중이다. 한 단장은 "AI의 위협을 AI로 막는 구조가 필요하다"며 "기술적 대응은 매우 중요하다"고 역설했다. LG유플러스는 그룹 AI 연구원과 협력해 자체 LLM '익시젠(XiGen)'도 운영 중이다. 기존 엑사원 모델을 기반으로 산업별 도메인에 특화한 경량 LLM을 개발하고 있으며 스마트폰 등 디바이스 탑재를 목표로 상용화를 추진 중이다. 한영섭 AI테크랩장은 "AI가 만든 콘텐츠를 알아채지 못하는 상황이 곧 현실이 될 것"이라며 "AI의 확산과 함께 신뢰 체계를 구축하는 것도 기업의 책임"이라고 말했다.

2025.05.27 15:46조이환

[현장] IAAE, AI 윤리 산업 컨퍼런스 개최…"기업, 안전 확보해야 경쟁력 따른다"

국제인공지능윤리협회(IAAE)가 기업 경쟁력 관점에서 인공지능(AI) 윤리를 조망하는 만남의 장을 열었다. 빅테크부터 스타트업, 공공기관까지 AI 시대의 생존 전략을 재정립하기 위해서다. IAAE는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC)' 컨퍼런스를 개최했다. 이번 행사는 내년 시행 예정인 AI 기본법을 앞두고 마련됐으며 과학기술정보통신부, AI 안전연구소(AISI), LG유플러스 및 주요 스타트업 등이 참여했다. 행사 주제는 '변화하는 AI 환경에서의 기업 경쟁력 확보'로, 단순한 법제 논의를 넘어 산업 현장의 실제 이슈를 다루는 데 초점이 맞춰졌다. 빅테크와 공공의 'AI 안전' 접근 방식이 충돌하는 상황에서 비영리 윤리기관이 조정자로 나섰다는 점에서 주목된다. 행사 운영은 테크 스타트업 PR 전문 에이전시인 팀쿠키가 맡았으며 프로그램은 공개 패널토론과 현장 사례 중심으로 구성됐다. 전창배 국제인공지능윤리협회 이사장은 이날 개회사를 통해 AI 기술과 산업 진흥이 차기 대통령 선거의 주요 공약으로 떠오른 상황에서 대부분 후보들이 'AI 강국'을 지향하고 있다는 점에 주목했다. 다만 기술 투자에 대한 공감대와 달리 AI 윤리와 안전에 대한 논의는 여전히 부족하다고 지적했다. 전 이사장은 "기술 투자에 반대할 사람은 없지만 윤리와 안전이 뒷받침되지 않으면 글로벌 시장에서 우리 경쟁력이 진정으로 인정받기 어렵다"며 "기술과 윤리는 어느 하나를 우열로 나눌 수 없는 문제"라고 강조했다. 그는 오픈AI, 구글, 앤트로픽 등 주요 글로벌 기업들이 AI 제품 출시 전 윤리 검증과 가치 정렬, 품질 검사를 철저히 거치는 사례를 언급하며 기술만 앞세운 접근 방식은 더 이상 유효하지 않다고 판단했다. 이어 올해 초 제정된 AI 기본법이 내년 1월부터 시행되는 만큼 정책의 실제 이행 여부가 기업 경쟁력에 직결될 것이라고 봤다. 전창배 IAAE 이사장은 "선거 이후 어떤 후보가 당선되더라도 AI 기본법의 원칙을 구체적 정책으로 연결해야 한다"며 "이번 행사가 정부와 산업계 모두에게 실질적 방향성을 제공하는 계기가 되기를 바란다"고 말했다. 이어 환영사를 진행한 임기태 팀쿠키 부대표는 지난해에 이어 올해도 행사를 후원한 이유에 대해 설명했다. 그는 협업을 통해 AI의 강력한 가능성을 직접 체감했고 그 과정에서 기술의 사회적 책임에 대한 고민도 깊어졌다고 밝혔다. 임 부대표는 "신뢰할 수 있는 AI란 무엇인가, 안전하면서도 유용한 AI를 구현하려면 어떤 원칙이 필요한가에 대한 논의의 장이 필요하다고 판단했다"며 "기술을 만드는 분들과 정책을 설계하는 분들 모두가 지속 가능한 AI에 대해 입체적이고 실질적인 이야기를 나누는 자리가 되길 바란다"고 말했다. 더불어 그는 팀쿠키가 IAAE와 업무협약을 체결하며 산업과 윤리 사이의 가교 역할을 자처해 왔다고 설명했다. 이번 컨퍼런스 역시 이 연장선에서 민간-공공, 기업과 학계가 머리를 맞대는 공동 논의의 장으로 기획됐다고 덧붙였다. 임기태 팀쿠키 부대표는 "공공, 기업, 학계 전문가들이 한자리에 모인 만큼 귀중한 인사이트를 나누고 건설적인 이정표를 함께 만들어나가는 계기가 되길 기원한다"고 강조했다.

2025.05.27 11:08조이환

디지털 클론, 광고의 미래인가 위험의 서막인가

AI가 만들어낸 가상의 인물, 이른바 '디지털 클론'이 실제 인간과 구분하기 어려울 정도로 정교해지고 있다. 최근에는 정치적 목적이나 기업 마케팅 전략에도 점점 더 널리 활용되고 있는데, 특히 패션 산업에서 디지털 클론의 활용이 빠르게 확산되고 있다. 이에 경영 전략 전문가 루아나 카르카노 씨는 그 장점과 문제점을 분석했다. 컨버세이션닷컴 외신 보도에 따르면, 패션 업계는 '디지털 클론'이 가장 활발히 활동 중인 분야 중 하나다. 패션 트렌드는 인플루언서를 통해 확산되는 경우가 많은데, 글로벌 인플루언서 시장 규모는 2025년까지 약 320억 달러(한화 약 43.7조원) 이상 성장할 전망이다. 하지만 실제 인플루언서와 협업하려면 시간과 비용이 많이 들기 때문에 브랜드 전용 디지털 클론을 제작해 홍보에 활용하면 비용을 절감하면서도 캠페인을 유연하게 운영할 수 있다. 실제로 글로벌 패션 브랜드 H&M은 올 3월, 자사 마케팅 캠페인과 소셜네트워크(SNS) 콘텐츠에 사용할 '디지털 모델 클론'을 제작할 계획을 발표했다. 이 디지털 클론은 완전히 가상의 인물이 아니라, 실제 모델의 외형을 기반으로 만들어졌다. 해당 모델은 디지털 클론의 초상권을 보유하고 있으며, 그에 따른 사용료를 받는 조건으로 계약됐다. H&M의 최고 크리에이티브 책임자 요르겐 앤더슨은 "우리는 개인의 스타일을 존중하면서도, 새로운 크리에이티브 방식으로 패션을 표현하고자 한다"면서 "신기술의 장점을 적극적으로 받아들이고 있다"고 밝혔다. H&M은 이 기술을 통해 촬영 비용을 줄이고, 카탈로그 제작 속도도 높일 수 있다고 설명했다. 하지만 한편으로는 모델, 메이크업 아티스트, 사진가 등 기존 인력의 일자리를 대체할 수 있어, 업계 전반에서 윤리적 우려와 논쟁도 커지고 있다. 카르카노 씨는 디지털 클론 사용에서 가장 중요한 이슈로 '동의'와 '보상'을 강조했다. H&M처럼 사전 계약을 통해 제작되는 경우도 있지만, 일부 기업이나 개인은 원래 인물의 얼굴이나 이미지 데이터를 무단으로 학습시켜 디지털 클론을 만들어내는 사례도 있어 문제가 되고 있다. 또 다른 문제는 다양성이다. AI는 매개변수를 조절해 다양한 인종, 연령, 체형의 인물을 만들어낼 수 있지만, 학습된 데이터에 따라 편향이 반영될 위험도 크다. AI가 다양성을 '연출'할 수는 있지만, 그럼에도 중대한 편견이 포함될 수 있다는 지적이다. 카르카노 씨는 디지털 클론이 패스트 패션 브랜드에게는 다양한 체형과 스타일을 표현할 수 있는 유용한 도구가 될 수 있지만, 윤리적 문제를 해결하려면 '투명성'이 무엇보다 중요하다고 강조했다. 사용자의 동의, 명확한 권한 부여, 그리고 개인정보와 초상권 보호를 위한 법적 기준이 마련돼야 한다는 주장이다. 그는 마지막으로 “브랜드가 AI 기술로 창의성을 높이기 위해서는 성실성, 포괄성, 법적 책임을 아우르는 윤리적 프레임워크를 도입해야 한다”고 강조했다.

2025.05.25 08:58백봉삼

한전, 윤리준법위원회 '청렴윤리위원회'로 확대·개편

한전이 윤리준법위원회를 '청렴윤리위원회'로 확대·개편해 청렴과 윤리경영의 가치를 강화한다. 한국전력(대표 김동철)은 23일 서울 양재동 아트센터에서 '2025년 제1차 윤리준법위원회'를 개최했다. 윤리준법위원회는 한전 윤리준법경영 강화와 내부통제체계 구축을 목적으로 2019년부터 운영되고 있다. 김동철 사장을 위원장으로 하고 내부 경영진 5명과 외부 위원 3명으로 구성돼 있다. 윤리준법위원회는 한전 윤리준법경영과 내부통제 체계의 최고 의사결정기구로 연간 추진계획 심의, 성과 실적 점검·평가, 향후 발전 방안 제안·지원 역할을 하고 있다. 이날 위원회에서는 부패 취약분야 진단, 청렴수준 평가 등 청렴업무와 관련한 의사결정 기능을 추가해 '청렴윤리위원회'로의 확대 개편하는 방안을 확정했다. 또 2025년 내부통제 종합추진계획과 윤리경영 종합추진계획을 의결하고 부패 취약분야 점검·개선방안, 조직 내 리스크 예방·투명한 경영체계 확립을 위한 구체적 실행방안 등을 논의했다. 김동철 한전 사장은 “한전이 전기요금 정상화, 전력망 적기 확충, 신기술·신산업 활성화 등의 사명을 수행하기 위해서는 국민의 지지와 신뢰가 반드시 필요하다”며 “청렴과 윤리 가치가 조직 전반에 뿌리내려 국민에게 신뢰받는 기업으로 자리매김할 수 있도록 최선을 다하겠다”고 강조했다.

2025.05.23 18:25주문정

[현장] "국제 AI 윤리 표준 만든다"…서울대, '제트인스펙션 컨퍼런스' 개최

서울대학교가 신뢰할 수 있는 인공지능(AI)을 주제로 국제 컨퍼런스를 열고 각국 전문가들과 윤리적 AI 개발 방향을 논의에 나섰다. 책임 있는 기술 활용을 위한 글로벌 연대와 한국 내 자율적 거버넌스 모델 구축이 주요 의제로 떠올랐다. 서울대학교 데이터사이언스 대학원은 20일 '제3회 제트인스펙션(Z-Inspection)' 국제 컨퍼런스를 관악구 서울대학교 호암교수회관에서 개최했다. 이틀 일정으로 열리는 이번 행사는 서울대 데이터사이언스대학원이 주관하고 독일계 글로벌 제약·소재 기업 머크(Merck), 제트인스펙션(Z-Inspection) 이니셔티브, 서울대 신뢰할 수 있는 AI 연구실이 협력해 운영한다. 서울대 교수진과 유럽 연구진을 포함해 약 50명의 윤리·의료·기술·법 전문가가 참석했다. 제트인스펙션은 AI 시스템이 실제 사회에 적용될 때 발생하는 위험과 긴장을 다학제적 방식으로 점검하는 절차 중심의 국제 평가 프로그램이다. 유럽연합(EU)의 AI 윤리 프레임워크를 기반으로 의료, 공공, 금융 등 각 분야 실사용 사례를 검토하고 윤리적 충돌 지점을 사전에 탐색하는 것이 핵심이다. 국내에서는 지난 3월 EU AI법을 참고한 '인공지능 개발 및 신뢰 기반 조성에 관한 기본법(AI기본법)'을 세계 두 번째로 입법했다. 이에 따라 국내에서도 윤리적 AI 기술에 대한 제도적·자율적 평가 수요가 증가하는 가운데 이번 회의는 제트인스펙션 프로그램의 실제 적용 가능성과 제도 밖 자율검증 모델을 공유하는 자리로 마련됐다. 이번 행사를 주도한 로베르토 지카리 서울대 초빙교수는 "AI는 그 자체로 선하거나 악하지 않으며 어떻게 쓰느냐에 달렸다"며 "정치적 이유로 규제가 지연되는 나라일수록 오히려 병원이나 기관들이 자발적으로 윤리 점검에 나설 기회가 된다"고 말했다. "윤리 없는 데이터, 기업 생존도 없다"…머크, 신뢰 기반 AI 전략 공개 이날 처음으로 발표를 맡은 장 앤노 샤르통 머크 디지털윤리·생명윤리 책임자는 회사 내부 윤리 프레임워크를 직접 소개하며 신뢰 기반 거버넌스의 필요성을 구체적으로 설명했다. 샤르통 책임자에 따르면 AI 윤리는 기업의 사업 전략 중심에 있어야 한다. AI 기술이 실제 고객과 내부 임직원에게 어떻게 수용되는지를 면밀히 점검하지 않으면 장기적으로 시장에서 신뢰를 잃게 된다는 것으로, 기술의 가능성보다 그 사용 방식이 더 중요하다는 설명이다. 이에 따라 머크는 현재 AI와 데이터 프로젝트에 대해 별도의 디지털 윤리 행동강령을 운영 중이다. 이 강령은 자율성, 투명성, 비편향성, 공정성, 혜택 극대화 등 다섯 가지 윤리 원칙에 기반하며 내부 윤리 자문단과 외부 독립 전문가 패널이 각 프로젝트를 평가하는 구조다. 이를 위해 회사는 자체 개발한 '위험 원칙 평가도구'를 활용한다. 프로젝트별로 윤리 민감도를 수치화해 사전 진단하고 위험 수준에 따라 대응 단계를 결정한다. 샤르통 책임자는 실제 환자 데이터 분석 도구, 인사 알고리즘, 생성형 AI 응용 사례 등에서 이 시스템이 작동하고 있다고 밝혔다. 더불어 그는 발표 중 미국 의료기관이 환자 동의 없이 구글에 건강 데이터를 제공했던 사례를 언급하며 법적 허용 여부만으로는 부족하다고 지적했다. 머크는 이 사건을 계기로 '기술의 최종 사용에 대한 기업의 윤리적 책임'을 조직 내부 규범으로 명문화한 상태다. 생성형 AI 확산에 맞춰 회사는 유럽연합 AI법(EU AI Act)을 기반으로 고위험군 기술 분류 체계를 도입했다. 이 분류에 포함된 프로젝트는 의무 윤리 심사를 거쳐야 하며 사업 부문별로 상이한 윤리 리스크를 반영하기 위해 맞춤형 체크리스트도 병행 운영되고 있다. 윤리 검토는 외부를 향한 책임뿐 아니라 내부 기술 수용성 확보에도 적용된다. 그는 일부 직원들이 AI에 대한 신뢰를 가지지 못하면 조직 내부 실험조차 추진이 어렵다고 강조했다. 샤르통 책임자는 "신뢰는 기술 수용의 전제조건이며 기업 평판과도 직결된다"며 "단기 수익만 쫓다 신뢰를 잃으면 그 비용은 훨씬 더 크게 돌아온다"고 말했다. "설계·사용자가 핵심…신뢰 가능 AI 위해 시나리오 기반 접근법 만들어야" 이날 또다른 발제를 맡은 마그누스 베스털룬 핀란드 아르카다응용과학대학 교수는 제트인스펙션 공동 책임자로서 실제 프로젝트 현장에서 축적한 AI 신뢰성 평가 사례를 공유하며 신뢰할 수 있는 AI 개념의 현실적 한계를 짚었다. 그는 기술 개발자이자 소프트웨어공학 박사 출신으로, 정보보안·사이버규제·AI 시스템 진단 등에서 실무와 연구를 병행해온 기술 기반 연구자다. 이날 발표에선 기술 중심 시각에서 윤리 원칙을 어떻게 해석하고 적용해 왔는지를 설명했다. 베스털룬 교수는 먼저 기술자가 윤리를 다룰 때 마주하는 추상성과 해석의 난이도를 문제 제기했다. 그는 유럽연합(EU)에서 정의한 AI 신뢰성 개념이 ▲합법성 ▲윤리성 ▲견고성이라는 세 축을 갖지만 이를 개발자의 언어로 번역하는 작업은 별개의 도전이라고 밝혔다. EU 고위 전문가 그룹이 제시한 신뢰원칙에는 인간 자율성 존중, 위해 예방, 공정성, 설명가능성이 포함된다. 다만 '설명가능성'이라는 용어를 실제 공학으로 번역하는 것은 매우 난이도 있는 작업이며 맥락 없이 단일 시스템을 평가하는 것은 불가능하다는 것이 베스털룬 교수의 설명이다. 이에 따라 제트인스펙션은 기술 요소만 분리해 분석하지 않고 사회적 맥락과 윤리적 긴장을 포함한 '전체 상황'을 기준으로 AI 프로젝트를 점검한다. 의도, 설계, 사용 환경을 함께 묻는 다학제 평가 체계를 통해 규제 기준 이상의 평가 가능성을 확보하는 것이 목적이다. 그는 다수의 사례를 들어 제트인스펙션이 실제로 어떻게 작동했는지를 설명했다. 코로나19 시기 흉부 엑스레이를 기반으로 감염 여부를 추론한다는 한 AI 모델이 논문으로는 주목받았지만 검증을 해보니 단순 병변 유무만 판별하는 수준이었다. 그는 이를 기술과 실제 운용 사이 괴리가 명확했던 대표 사례로 소개했다. 또 다른 사례는 피부암(흑색종) 판별 앱이었다. 초기엔 일반 대중을 사용 대상으로 설계됐지만 평가팀은 공공의료 체계가 감당할 수 없는 오진, 과잉진료 문제를 우려해 전문가 중심 사용 설계로 방향을 수정했다. 이날 발표에서 베스털룬 교수는 "우리는 AI의 '정답'을 정하는 것이 아니라 어떤 질문을 던져야 하는지를 규정하는 데 집중한다"며 "AI는 결국 인간의 반영으로, 모든 기술적 의사결정은 인간의 판단과 가치관을 되비추는 거울이기에 신뢰할 수 있는 AI란 윤리를 이해하려는 지속적 시도 속에서만 존재할 수 있다"고 강조했다.

2025.05.20 14:23조이환

국내 첫 'AI안전윤리 인증제도' 시행…'챗GPT' 기반 챗봇, 1호 인증받아

국내에서 민간 주도의 인공지능(AI) 안전윤리 인증제도가 처음으로 도입됐다. AI 기술 상용화에 속도가 붙는 가운데 기업의 윤리적 리스크를 줄이고 소비자 신뢰를 확보하기 위한 시도다. 국제인공지능윤리협회(IAAE)는 'AI안전윤리 인증제도'를 시행하고 첫 인증 대상으로 '고도원의 아침편지 AI챗봇'을 선정했다고 18일 밝혔다. 이 챗봇은 오픈AI의 '챗GPTs' 기반으로 개발돼 민간 인증 1호 사례로 기록됐다. 인증제도는 인공지능의 안전성·윤리성·신뢰성을 종합적으로 검증하는 구조다. 국제 규격에 따라 개발 전 과정에서 AI 시스템이 사회적 기준을 충족하는지 평가한다. 심사는 협회 산하 'AI안전윤리인증센터'에서 맡는다. 심사원들은 국제표준화기구(ISO)의 'ISO 42001' 기준에 따라 선임심사원 자격을 갖춘 전문가들로 구성돼 있다. 검증 항목은 개인정보 보호와 알고리즘 편향 방지, 투명성, 시스템 안정성 등 윤리적 요소 전반이다. AI 시스템의 설계부터 운영까지 전주기를 대상으로 한다. 1호 인증을 받은 '고도원의 아침편지 AI챗봇'은 23년간 운영된 뉴스레터 콘텐츠를 기반으로 개발됐다. 상담과 조언, 일상 대화를 제공하는 'GPTs' 서비스로, 기존 사용자 경험을 AI 기술로 확장한 사례다. 협회는 올해 안에 10곳 이상을 대상으로 시범인증을 추가로 시행하고 연말부터 본인증 절차에 들어간다. 자체 인증 표준도 연내 공개해 기업과 공공기관의 대응을 지원할 계획이다. 전창배 IAAE 이사장은 "AI 기술이 사회적으로 수용 가능한 방식으로 활용되도록 만드는 것이 제도의 핵심"이라며 "소비자와 기업 모두가 안심하고 AI를 신뢰할 수 있는 환경을 조성하는 데 목적이 있다"고 밝혔다.

2025.05.18 15:15조이환

[현장] LG AI연구원, 신뢰·포용성 강화에 '방점'…"모두를 위한 AI로 향한다"

"인공지능(AI)은 단순한 기술이 아니라 모두가 혜택을 누릴 수 있어야 하는 도구입니다. 우리 '엑사원'은 작은 규모로도 탁월한 추론 능력을 보여주며 그 가능성을 증명했습니다. 개발 전 과정에서 윤리적인 AI를 개발해 모두를 품도록 지원하겠습니다." 김유철 LG AI연구원 부문장은 14일 서울 강남구 코엑스에서 열린 '2025 국제인공지능대전' 행사에서 이같이 말했다. 이날 신뢰와 포용성을 위한 전문가 AI의 역할을 주제로 발표에 나선 그는 연구원의 '엑사원'을 비롯한 고성능 추론모델의 사회적 활용과 AI 윤리 거버넌스 구축 방안에 대해 설명했다. 김 부문장이 강조한 발표의 출발점은 'AI의 사회적 확장성'이다. AI가 단순히 텍스트나 이미지 생성에 머무르지 않고 의료, 신약, 소재, 난임 치료 등 실질적 사회문제 해결에 기여해야 한다는 시각이다. 김 부문장은 "AI는 기술 그 자체가 아니라 모든 이가 함께 성장하고 발전할 수 있도록 돕는 수단이어야 한다"며 "우리는 단순히 성능을 높이는 데 그치지 않고 산업 현장에서 유의미한 결과를 만들어내기 위해 포용성과 신뢰를 동시에 추구하고 있다"고 말했다. 이러한 실질적 사회문제 해결을 위한 AI 활용을 위해서는 단순한 생성 능력을 넘어선 고차원적 추론력이 필수적이다. 실제 현장에서 AI가 유의미한 역할을 하기 위해선 상황을 이해하고 판단을 내릴 수 있는 능력이 요구된다. LG는 이 같은 추론 역량에 집중해 실전에서 작동 가능한 전문가 AI 개발에 주력하고 있다. 이러한 기조를 반영하듯 최근 출시된 '엑사원 딥' 모델은 추론 능력 측면에서 뚜렷한 강점을 드러냈다. 김 부문장은 "'엑사원 딥'은 딥시크 'R1'보다 20분의 1 수준의 크기지만 수학 등 주요 벤치마크에서 오히려 더 높은 성능을 보였다"며 "단순 암기가 아닌 가정을 세우고 검증하는 추론 능력이 산업 현장에서 특히 중요하다"고 말했다. 이러한 추론 기술은 의료 현장에서 실제로 적용되고 있다. 대표 사례는 암 환자 대상의 임상시험 사전진단에 활용되는 '엑사원 패스'다. 기존에는 DNA 검사를 통해 특정 유전자 변이를 식별하는 데 평균 한 달가량이 소요됐지만 이 모델은 조직 검사 이미지만으로 변이를 예측해 시간을 대폭 단축했다. 김 부문장은 "말기 암 환자에게 한 달은 생존 여부를 좌우할 수 있는 시간"이라며 "해당 기술은 환자의 생존율을 높이는 데 기여할 것"이라고 설명했다. 이외에도 연구원은 소재 과학, 화장품, 배터리 등 다양한 산업 분야에서 AI 기술을 적용 중이다. 신물질 탐색과 물성 예측 등 반복적인 실험 단계를 대폭 단축해 개발 속도를 수개월에서 하루 단위로 줄이는 데 성공했다. '포용성'만큼이나 강조된 또 다른 축은 '신뢰성'이다. 연구원은 모든 AI 개발 과제에 대해 윤리 영향평가 프로세스를 적용하고 있다. 지난해 기준 총 80여 개 프로젝트에 전 과정을 걸쳐 이 평가지표를 적용했고 데이터 사용 적절성, 사용자 오용 가능성, 사회적 편향 여부 등을 점검했다. 김 부문장은 "단순히 기술이 잘 작동하느냐가 아니라 누구도 소외되지 않도록 설계하기 위해서는 신뢰성이 필수적"이라고 말했다. 데이터 사용에 대한 법적·윤리적 책임도 강화하고 있다. 연구원은 학습 데이터의 무결성을 확보하기 위해 18개 기준의 평가체계를 마련했고 한 법무법인과 함께 전수 조사를 진행해 부적절한 데이터는 모두 제외했다. 더불어 이 과정을 효율화하기 위해 자체 에이전트를 개발해 수십만 건의 데이터셋에 대해 자동 검토를 실시하고 있다. 이로 인해 정확도는 20% 이상 높아지고 처리 속도는 40배 개선됐으며 비용도 0.1% 수준으로 줄었다는 설명이다. 이날 발표에서는 '소버린 AI' 개념도 소개됐다. 국가별 상식과 문화 차이에 대응하는 AI 모델 개발의 필요성을 강조하며 LG가 국제적으로 명망있는 AI 학회인 NAACL에서 소셜 임팩트 어워드를 수상한 사례도 언급됐다. 각국 사용자 특성을 반영해 편향을 줄이고 적합한 결과를 제공하기 위한 기술적 기반 확보가 이뤄지고 있다는 평가다. 김유철 LG AI연구원 부문장은 발표를 마치며 "모델이 얼마나 똑똑한지만 따지는 시대는 끝났다"며 "안전하고 실제 현장에서 작동하며 사회적으로 책임 있는 AI를 만드는 데 집중하겠다"고 말했다.

2025.05.14 17:12조이환

AI 기본법 앞두고 산·학·연·관 '총집결'…지속가능한 생태계 '모색'

인공지능(AI) 기본법 시행령 발표를 앞두고 국제인공지능윤리협회가 기업과 정부가 함께 참여하는 논의의 장을 마련한다. AI 경쟁력 확보가 시급한 가운데 산업 현장의 안전성과 윤리성을 확보하려는 시도다. 국제인공지능윤리협회는 오는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 인공지능 안전 컴패스(AISC) 컨퍼런스'를 개최한다고 13일 밝혔다. 이날 행사에는 과학기술정보통신부, AI 안전연구소, 한국과학기술정보연구원, LG유플러스, 원티드랩, 셀렉트스타, AI3 등 주요 공공기관과 민간 기업들이 참석해 글로벌 AI 경쟁력 확보 방안을 논의할 예정이다. 이번 컨퍼런스는 '변화하는 AI 환경에서의 기업 경쟁력 확보'를 주제로, 미국과 중국 등 주요국의 AI 전략에 대응한 한국 기업의 실질적 대응 방안을 모색한다. 특히 AI 기술의 단순 도입을 넘어 안전성과 윤리성을 갖춘 지속가능한 활용 전략이 주요 의제로 다뤄진다. 행사는 공공 세션과 기업 세션으로 구성되며 공공 부문에서는 공진호 과학기술정보통신부 인공지능기반정책과장, 이경하 한국과학기술정보연구원 초거대AI연구센터장, 김명주 AI안전연구소 소장이 발표자로 나선다. 각각 국가 AI 정책 방향, 차세대 기술 연구, 글로벌 경쟁력 확보 방안 등을 공유한다. 기업 세션에서는 한영섭 LG유플러스 AI테크랩장, 주형민 원티드랩 AX사업 총괄, 황민영 셀렉트스타 부대표, 표철민 AI3 대표가 연단에 오른다. 현장에서는 AI 도입 역량 내재화 전략, 정확성·안정성 평가 방식, 개인정보 보호를 위한 내부통제 사례 등 산업계 실천 방안이 집중 공유된다. 류태준 팀쿠키 대표는 "대권 주자들의 AI 공약 경쟁이 본격화되는 시점에서 이번 컨퍼런스가 AI 기본법과 가이드라인에 실질적 방향성을 줄 수 있을 것"이라고 말했다. 전창배 국제인공지능윤리협회 이사장은 "한국이 AI 글로벌 탑3 선도국으로 진입하려면 산학연관과 민간의 단합된 노력이 필요하다"며 "AI 기술뿐 아니라 윤리와 안전에서 신뢰를 확보해야 한다"고 밝혔다.

2025.05.13 16:58조이환

[신간] 질문으로 답을 찾는 인공지능 윤리 수업

“왜 인공지능에서 '윤리'가 중요할까?” “인공지능이 내린 결정을 믿을 수 있을까?” “우리가 생각하는 인공지능의 모습은 어떤 것이어야 할까?” 인공지능(AI) 세상이다. AI는 우리 현재와 미래를 어떻게 바꿀까? AI를 칭하는 말이 많이 있다. 대표적인게 인공지능 세계 4대 천왕 중 한명인 앤드류 응 전 스탠포드 교수이자 VC 투자자가 한 말이다. 그는 AI는 새로운 전기라고 했다. 그만큼 필수불가결하다는 말이다. AI에 대한 부정적인 말도 있다. AI가 핵무기만큼 인류를 위협한다는 말이다. 맞다. AI는 새로운 전기만큼 필수불가결하고 또 핵무기 만큼 '위험한 물건'이기에 우리가 잘 다뤄여 한다. 이와 같은 특성을 가진 인공지능이 가져올 미래의 세상을 우리는 어떻게 준비하며, 또 어떤 가치와 철학을 중심으로 삼아야 할까? 이 책은 그 답을 찾기 위한 가이드 역할을 제시한다. 저자는 국내 최고 수준 AI윤리교육 전문가다. 현재 서울교육대학교 윤리교육과 교수로 활동하고 있다. 책에서 저자는 인공지능 시대의 주역으로 성장할 청소년이라면 반드시 알아야 할 인공지능의 윤리적 문제와 가치관을 다룬다. 특히 누구나 공감할 만한 스물한 편의 흥미진진한 에피스드를 제시, 흥미를 돋운다. 이 에피소드에서 저자는 자율주행차 딜레마, 딥페이크, 인공지능과 일자리, 인공지능 책임과 투명성, 창의성과 저작권, 인공지능과 인간의 공존 등 인공지능이 초래하는 다양한 윤리적 문제 와 사회적 영향을 다뤘다. 인공지능 시스템의 저항에도 불구하고 인간처럼 느끼고 경험하기 위해 애쓰는 피노키오, 몸과 뇌를 기계로 대체한 후 자신의 정체성에 대해 고민하는 테세우스, 기계화로 인해 일자리를 잃을 위기에 처하는 네드 같은 '에피소드' 속 인물들의 이야기들을 하나하나 따라가다 보면, 어렵고 복잡하게만 보이던 인공지능 기술 및 윤리 문제에 대해 '나름 대로의 해법'을 찾을 수 있다. 또 각 '에피소드' 뒤에는 '탐구 질문'을 제시, 독자 스스로 생각하고 토론할 수 있는 기회도 제공, 윤리적 판단력과 비판적 사고력을 키우도록 돕는다. 교사와 학생이 교육 현장에서 직접 활용할 수 있도록 구체적이고 실용적인 가이드를 제시하는 것은 물론, 가정에서 부모와 자녀가 함께 인공지능 윤리에 대해 깊은 논의를 진행하도록 돕는 실용적인 자료로도 좋다. 저자인 박형빈 서울교육대학교는 교육학 박사다. 서울교육대학교 교육전문대학원에듀테크전공및인공지능인문융합전공교수이기도 하다. 서울교육대학교신경윤리융합교육연구센터및가치윤리AI허브센터센터장을 맡고 있다. 도덕윤리교육, 인격교육, AI윤리교육, 신경윤리학 등에 관심을 갖고 연구하며 가르치고 있다. 미국UCLA교육학과(DepartmentofEducation)에서 방문 학자로도 있었다. 저자는 이미 여러 책을 냈다. ▲BCI와 AI 윤리(커뮤니케이션북스, 2025) ▲AI윤리와 뇌신경과학 그리고 교육(어문학사, 2024) ▲인공지능윤리와 도덕교육(씨아이알, 2022)을 출간했다. 또 ▲AI 시대 대한민국 교육 변혁(한국학술정보, 2024) ▲도덕교육학: 그 이론과 실제』(한국학술정보, 2021) ▲뇌 신경과학과 도덕교육(울력, 2019, 2020 세종우수학술도서) ▲통일교육학: 그 이론과 실제(한국학술정보, 2020) 등의 글을 썼다. 한언 펴냄/150x210mm 256쪽/2만1000원. 책 차례 프롤로그_ 철학적 좀비? 디지털 좀비? 제1부 우리는 지금 어디에 있으며, 어디를 향해가고 있을까? 에피소드 1. 우리는 지금 어디쯤 왔을까? 에피소드 2. 인공지능에도 윤리가 필요하다고? 에피소드 3. 인공지능과 함께하는 우리의 미래, 어떤 모습이어야 할까? 제2부 인간과 인공지능의 사이에서 에피소드 4. 인간이 된다는 건 어떤 걸까? 에피소드 5. 오늘의 나는 어제의 나와 같은 존재일까? 에피소드 6. 피노키오의 감정은 진짜일까, 흉내 내기에 불과할까? 에피소드 7. 피노키오도 인간처럼 경험하고 배우며 성장할 수 있을까? 에피소드 8. '나'를 복제한 인공지능은 또 다른 '나'가 될 수 있을까? 에피소드 9. 인공지능이 인간과 진짜 가족이 될 수 있을까? 에피소드 10. 인간과 인공지능의 경계는 어디일까? 제3부 인공지능이 드리운 그늘 에피소드 11. 인공지능이 인간의 일자리를 대신하게 된다면? 에피소드 12. 딥페이크 문제를 어떻게 다룰까? 에피소드 13. 인공지능으로 인한 사회적 갈등, 예방 및 해결책은? 에피소드 14. 인공지능이 도덕적으로 판단하고 윤리적으로 행동할 수 있을까? 에피소드 15. 인공지능 로봇의 권리를 보장해야 할까? 제4부 인공지능의 윤리와 책임 에피소드 16. 인공지능이 축구 국가대표팀 감독을 뽑는다면? 에피소드 17. 인공지능끼리의 충돌은 어떻게 해결할까? 에피소드 18. 인공지능 학생 관리 시스템은 또 하나의 판옵티콘이 될까? 에피소드 19. 캡차의 역설, 인공지능이 더 인간답다? 에피소드 20. 인공지능이 '인간 자격증'을 갖는다면? 에피소드 21. 인공지능이 인간의 통제를 벗어날 때 에필로그_ 인공지능 시대, 인간다움을 지키기 위한 윤리적 성찰

2025.05.11 11:15방은주

"AI가 법 집행, 안심할 수 있을까"… '슬기로운 AI생활' 컨퍼런스 출범

국제인공지능윤리협회가 인간과 인공지능(AI) 로봇의 공존을 주제로 한 만남의 장을 출범시켰다. 기술 진화에 따른 사회적·윤리적 대응을 모색하려는 의도다. 국제인공지능윤리협회는 지난달 30일 '슬기로운 AI생활 온라인 컨퍼런스'를 개최했다고 11일 밝혔다. 행사는 커뮤니케이션북스, AI코리아커뮤니티와의 공동 주관 하에 줌(Zoom)을 통해 실시간으로 진행됐다. 시민, 전문가, 학생 누구나 무료로 참여할 수 있는 형태로 열렸다. 이번 컨퍼런스는 '인간을 닮아가는 AI 로봇의 진화와 위협'을 주제로, '커뮤니케이션북스 인공지능 총서' 저자들이 강연자로 나섰다. AI 기술의 현재와 미래, 그리고 인간과의 공존 가능성에 대한 다각도의 논의가 이뤄졌다. 첫 발표를 맡은 정채연 포항공과대학교 교수는 "AI가 윤리를 배운다면 인간은 여전히 특별한가"를 주제로 AI 로봇과 휴머니즘의 관계를 탐색했다. 이어 송진순 동아대학교 교수는 AI와 로봇경찰의 역할을 중심으로 법집행의 변화 가능성을 다뤘다. 김상득 전북대학교 교수는 인공지능의 도덕성 수용 가능성을 철학적으로 분석했고 정대현 이화여자대학교 명예교수는 로봇종과 자연종 인간의 본질 비교를 통해 AI 시대 인간성의 의미를 되짚었다. 강연 이후에는 실시간 채팅과 사전 질문지를 바탕으로 참가자들과 전문가 간 질의응답이 진행됐다. AI 로봇이 초래할 사회 변화, 책임 소재, 규제 방향 등 실질적 쟁점에 대한 활발한 토론이 이어졌다. 협회는 이번 행사를 시작으로 매월 마지막 주 수요일에 정기 컨퍼런스를 열 예정이다. 오는 28일에는 'AI 에이전트의 등장 : 내 디지털 분신과 공존하는 법'을 주제로 두 번째 컨퍼런스가 열린다. 전창배 국제인공지능윤리협회 이사장은 "AI 기술이 급속도로 발전하면서 우리 모두가 AI를 알고 함께 대응해야 하는 집단지성이 더욱 중요해졌다"며 "이번 컨퍼런스를 통해 시민들이 기술뿐 아니라 윤리와 제도 측면까지 함께 고려할 수 있는 기회를 만들고자 한다"고 밝혔다.

2025.05.11 09:48조이환

'AGI의 시대', 2025년 최우수 과학기술도서 출판상 수상

한빛미디어(공동대표 김태헌·전태호)에서 출간한 'AGI의 시대: 인간을 초월한 인공지능, AGI를 논하다'가 제42회 최우수과학기술도서 출판상을 수상했다고 8일 밝혔다. 이번 수상은 인공지능의 미래와 사회 전반에 미치는 영향을 심도 있게 다룬 점에서 높은 평가를 받아 이뤄졌다. AGI의 시대는 한상기 박사가 집필한 인공일반지능(AGI, Artificial General Intelligence)에 관한 교양서다. 단순히 기술적 설명에 그치지 않고 AGI의 사회적 파장, 윤리적 쟁점, 인간성의 의미까지 폭넓게 성찰한 것이 특징이다. 특히 AGI의 도래가 가져올 변화와 이에 대응해야 할 사회적 준비를 체계적으로 정리해 전문가뿐 아니라 일반 독자들에게도 큰 반향을 일으켰다. 저자는 “AGI라는 다소 무거운 주제를 쉽게 풀어내며 깊은 사유와 구조적 분석을 함께 담아낸 작품”이라며 “인공지능 기술을 바라보는 우리의 시각이 갈수록 중요해지는 가운데, AGI의 시대가 사회적 대화를 여는 시작점이 되길 바란다”고 밝혔다. AGI의 시대는 출간 이후 다양한 학술 모임과 기업, 공공기관에서 참고 도서로 활용되고 있으며, 미래 기술 담론을 이끄는 필독서로 자리매김하고 있다.

2025.05.08 17:35백봉삼

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

"AI 챗봇 '과잉 공감' 경계해야"…나르시시즘·망상 키울 수도

'보안 올림픽' 4연승 박세준 "K-보안, 글로벌로 가야"

공공 클라우드 전환 앞장서는 美정부…한국은 '제자리걸음'

李대통령 "국정운영 중심에 언제나 국민"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.