• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'윤리'통합검색 결과 입니다. (65건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

정부, '공공부문 AI 윤리원칙' 마련…행정 혁신·국민 신뢰 확보

행정안전부가 인공지능(AI) 기술을 통한 행정 혁신을 촉진하고 AI 사용에 대한 국민 신뢰 확보에 나선다. 행안부는 '공공부문 AI 윤리원칙'을 마련했다고 4일 밝혔다. 최근 AI가 급속히 발전하면서 다양한 곳에서 활용되고 영향력도 급격히 확대되면서 편향성 문제 등의 부작용이 나타나고 있다. 현재 해외에서는 AI 윤리 문제에 대응 중이며 우리나라도 각 부처 특성에 맞춰 과학기술정보통신부·교육부 등에서 윤리지침을 운영하고 있다. 행안부도 공공부문의 AI 활용이 국민 생활에 직접적인 영향을 미치는 만큼, 민간과는 차별화된 윤리원칙 마련의 필요성을 인식했다. 이에 AI 윤리에 대한 전문가 실무단 운영과 자문회의 개최를 통해 초안 작성 후 보완 과정을 거쳤다. 행안부가 마련한 공공부문 AI 윤리원칙은 행정 혁신 촉진과 국민 신뢰 구축을 목표로 국민·행정·기술 관점에서 공공성·투명성·안전성·형평성·책임성·프라이버시 보호 등 6대 원칙으로 구성됐다. 또 공공부문 종사자가 실무적으로 점검할 수 있도록 6대 원칙에 따른 90여 개 세부 점검사항을 체크리스트 형식으로 제시했다. 공공부문 AI 윤리원칙의 주요 특징은 다음과 같다. 우선 사회 구성원 모두를 대상으로 하지 않고 중앙행정기관, 지방정부, 공공기관 및 지방공사‧공단 등 공공부문의 종사자를 대상으로 한정하고 지침의 성격을 지니고 있다. 또 이번 공공부문 AI 윤리원칙은 선언적 가치에 그치지 않고 세부 점검표를 통해 자체 점검하며 그 점검 결과를 조정·환류할 수 있는 체계를 두고 있다. 행안부는 이번에 마련된 공공부문 AI 윤리원칙에 대해 중앙행정기관 등 공공부문 종사자 외에 학계 등 전문가의 의견도 폭넓게 수렴해 확정할 계획이다. 아울러 90여 개 점검항목이 일선 현장에서 실질적으로 작동할 수 있도록 AI 윤리원칙 실천에 대한 교육 프로그램도 마련해 실행력을 높여 나갈 예정이다. 윤호중 행안부 장관은 "공공부문에서 빠르게 발전하는 AI를 안전하게 사용하면서도 정부 효율성과 생산성을 높이기 위해서는 윤리원칙이 필수"라며 "공공부문의 AI 전환과 함께 마련되는 AI 윤리원칙이 개인의 인권 침해 등 다양한 위험요소에 대비하고 국민의 기본권을 지키는 행동기준이 될 수 있도록 하겠다"고 밝혔다.

2025.11.04 10:03한정호 기자

NS홈쇼핑, 제6기 윤리위원회 발족

NS홈쇼핑(대표 조항목)이 지속가능경영과 사회적 책임 실천을 위한 제6기 윤리위원회 발족식을 지난 10월 30일 경기도 성남 판교사옥에서 개최했다고 3일 밝혔다. NS홈쇼핑 윤리위원회는 투명성과 공정성을 강화하기 위해 사외인사를 내부 위원보다 더 많이 포함해 구성했으며, 위원장 또한 사외인사 중에서 위촉했다. 위원장은 권재익 기업소비자전문가협회 수석전문위원이 맡게 되며, 정한근 법무법인 화우 고문, 문철수 한신대학교 미디어영상광고홍보학부 교수, 권창범 변호사 등은 위원으로 활동하게 된다. NS홈쇼핑은 2015년부터 윤리경영 정착을 통해 지속가능경영과 사회적책임실천을 강화하고자 윤리위원회를 운영해 왔다. 이번 제6기 윤리위원회는 앞으로 ▲분기별 윤리추진활동에 대한 평가 및 자문 ▲방송법, 공정거래법 등 홈쇼핑 관련 제반 법규 준수 활동에 대한 평가 ▲협력사와의 동반성장, 상생활동을 위한 제안 등의 역할을 할 계획이다. 조항목 대표이사도 "제6기 윤리위원회의 건설적인 제언을 통해 윤리경영 수준을 한 단계 더 높이는 계기가 되기를 희망한다"라며, “제반 법규를 성실히 준수하고, 모범적인 동반성장을 이어갈 수 있도록 점검하고 조언해 주시길 기대한다"라고 당부했다.

2025.11.03 11:11안희정 기자

앤트로픽·구글 "AI 안전은 핵심 경쟁력"…네이버·LG도 '책임 확장' 가속

인공지능(AI)이 고도화될수록 안전은 더 이상 부가 요소가 아니라 기업 경쟁력의 핵심으로 떠오르고 있다. AI 선도 기업들은 모델 확장 속도만큼 안전 검증을 정교하게 설계하며 책임 있는 기술 개발을 위한 내부 체계를 강화하고 있다. 앤트로픽·구글 딥마인드·네이버클라우드·LG AI연구원 등 주요 기업들은 28일 호텔 나루 서울 엠갤러리 앰배서더에서 열린 '2025 인공지능 안전 서울 포럼'에서 기술적·제도적 접근을 결합한 AI 안전 프레임워크와 검증 체계를 공개했다. 첫 발표를 맡은 앤트로픽 마이클 셀리토 글로벌정책총괄은 "강력한 AI 시스템이 물리적 세계와 연결되기 시작한 만큼 안전장치도 정교해져야 한다"며 "AI가 스스로 실행하는 시대에는 기술적 제어만으로는 충분하지 않다"고 말했다. 셀리토 총괄은 앤트로픽이 추진 중인 '책임 있는 확장 정책'을 공개하며 AI 모델의 성능이 높아질수록 보안·평가·통제 수준을 단계적으로 강화하는 구조를 소개했다. 그는 "우리는 위험한 AI 모델을 배포하지 않겠다는 원칙을 명문화했고 외부 AI 안전 연구기관과 협력해 제3자 검증을 받는다"며 "이런 방식이 개발 속도를 늦추는 것이 아니라 오히려 더 빠르고 안전한 배포를 가능하게 한다"고 강조했다. 이어 "AI 안전 평가가 이제는 자율적 약속이 아니라 법적 의무로 전환되는 시점에 와 있다"며 "유럽연합(EU)·미국·한국 모두 안전 프레임워크 공개와 검증을 요구하는 규제 체계를 준비하고 있다"고 덧붙였다. 기술을 얼마나 빨리 확장하느냐보다 얼마나 책임 있게 확장하느냐가 향후 AI 기업의 신뢰를 좌우할 것이라는 설명이다. 이어진 영상 발표에서 구글 딥마인드의 루이스 호, 메리 퐁 연구원은 '프론티어 세이프티' 프레임워크를 중심으로 AI의 위험 역량을 조기 탐지하고 정기적으로 평가하는 체계를 설명했다. 두 연구원은 자율성, 생물, 사이버 위험, 기계학습 연구 역량 등 네 가지 핵심 위험 영역을 지정하고 모델이 위험 임계치를 넘어서기 전 단계에서 위험 역량 평가를 수행한다고 발표했다. 메리 퐁 연구원은 "현재의 AI 모델들은 아직 위험 임계치에는 도달하지 않았지만 세대가 바뀔 때마다 일부 고위험 작업 수행 능력이 비약적으로 향상되고 있다"며 "이를 놓치지 않으려면 정기적이고 반복적인 검증이 필요하다"고 말했다. 이어 "AI 안전은 단발성 평가로 끝나선 안 되며 모델의 변화 주기마다 업데이트되는 동적 평가가 핵심"이라고 덧붙였다. 국내 기업들도 AI 안전을 독립된 경쟁력의 축으로 다루고 있다는 점을 강조했다. 네이버클라우드 윤상두 AI랩 연구소장은 "네이버는 2021년 '사람을 위한 AI'라는 윤리 준칙을 제정하고 초거대언어모델(LLM) '하이퍼클로바X' 개발 전 과정에 안전성 검증을 내재화했다"고 소개했다. 그러면서 "한국어 기반 안전 데이터셋이 부족한 현실을 보완하기 위해 자체 구축한 평가 데이터셋을 오픈소스로 공개했다"며 "모델 개발·배포·운영 전 단계를 관리하는 3선 방어 체계를 도입해 독립된 AI 세이프티 오피스가 사내외 모델의 안전성을 주기적으로 점검하고 있다"고 설명했다. 이어 "AI 안전을 단순한 법적 요구가 아니라 기업의 생존 전략으로 접근해야 한다"며 "모든 개발 과정에 리스크 관리 절차를 자동화해 AI 서비스의 신뢰를 확보하는 것이 목표"라고 강조했다. LG AI연구원 김유철 전략부문장은 AI 안전이 모델 개발의 마지막 단계에서 덧붙이는 절차가 아니라 설계 초기부터 내재화해야 하는 원칙이라고 짚었다. 이에 LG AI연구원은 설립 직후 윤리 원칙과 거버넌스 체계를 수립하고 모든 연구 과제에 윤리 영향 평가를 의무화했다. 또 데이터 컴플라이언스 체계를 통해 학습 데이터의 저작권과 개인정보 위험을 점검하고 AI 에이전트를 활용해 이를 자동화하고 있다. 김 부문장은 "AI의 가장 큰 위험은 기술 자체보다 소수 국가나 대기업만 혜택을 누리며 사회적 격차가 심화되는 것"이라며 "AI를 만드는 기술자뿐 아니라 AI를 사용하는 사회가 얼마나 선한가 역시 AI 세이프티의 핵심 가치로 봐야 한다"고 말했다. 끝으로 발표자들은 "AI의 위험은 국경을 넘어 확산되며 대응 역시 글로벌 협력이 필수적"이라며 "기업이 먼저 안전의 원칙을 실천할 때 비로소 신뢰할 수 있는 AI 생태계가 완성된다"고 입을 모았다.

2025.10.28 17:26한정호 기자

"AI에 너무 빠지지 마세요"…'정서적 의존' 막을 국내 첫 윤리 가이드라인 나왔다

국제인공지능윤리협회가 인공지능(AI)과의 지나친 감정 교류 부작용 막을 첫 윤리 기준 확립에 나섰다. 국제인공지능윤리협회는 최근 '감정 교류 AI 윤리 가이드라인'을 제정해 발표했다고 17일 밝혔다. AI 챗봇과 정서적으로 교류하며 의존하는 이용자가 급증함에 따라 관련 윤리 기준 마련이 시급하다는 지적에 따른 것이다. 실제 오픈AI와 MIT 미디어랩의 공동 연구에 따르면 일부 이용자는 하루 평균 30분 이상 AI와 감정적 대화를 나눴다. 글로벌 감정 교류 AI 시장 역시 오는 2034년까지 연평균 21.7%에 달하는 가파른 성장이 전망된다. 가이드라인은 이러한 확산이 감정 조작이나 심리적 의존 알고리즘 편향 프라이버시 침해 등 복합적인 위험을 낳을 수 있다고 경고했다. 그러면서 '인간 존엄성과 정서적 안전'을 가장 본질적인 과제로 꼽았다. AI가 사용자의 감정적 취약성을 이용할 경우 신체적 피해 이상의 심리적 손상을 줄 수 있다는 분석이다. 특히 서비스 제공자를 위한 '엘에이엠피(LAMP)' 원칙을 제시했다. ▲L(Limit·줄여라) 데이터 최소 수집 ▲A(Announce·알려라) AI임을 명확히 고지 ▲M(Monitor·살펴라) 지속적 점검과 검증 ▲P(Protect·지켜라) 개인정보와 취약 계층 보호가 핵심이다. 장시간 사용 시 휴식을 유도하고 위험 키워드를 감지하면 전문 기관으로 연결하는 기술적 조치도 주문했다. 가이드라인은 사용자에게 AI가 인간이 아닌 기술임을 명확히 인식하고 과도한 의존을 경계해야 한다고 당부했다. 정책기관에는 감정 교류 AI를 '고영향 인공지능' 범위에 포함하고 영향평가 및 인증시스템과 사용자 피해 구제 체계를 마련하는 역할을 제시했다. 전창배 국제인공지능윤리협회 이사장은 "이번 가이드라인은 선언적 원칙에 그치지 않고 주체별 구체적인 실천 지침과 행동강령을 제시했다는 데 큰 특징이 있다"며 "기술 발전 속도에 비해 사회적 규범과 제도 정비가 뒤처진 상황에서 산업계의 책임 있는 혁신과 정책의 합리적 수립을 위한 기반을 제공할 것"이라고 강조했다.

2025.10.17 15:10조이환 기자

KISDI, AI World 2025서 '책임 있는 AI' 논의 주도

정보통신정책연구원(KISDI)의 문정욱 디지털사회전략연구실장이 25일 서울 롯데월드타워에서 열린 글로벌 AI 컨퍼런스 'AI World 2025'에서 'Responsible AI: Safe, Trustworthy' 세션 좌장을 맡아 책임 있는 인공지능 조건과 과제를 주제로 토론을 이끌었다. 이번 세션은 정책·산업·표준화 측면에서 AI 신뢰성·안전성 확보 방안을 모색하기 위해 마련됐다. 패널로는 박계현 한국마이크로소프트(MS) 전무와 곽준호 한국정보통신기술협회(TTA) AI신뢰성기술 팀장이 참여했다. 문 실장은 “AI 신뢰성과 안전성은 사회가 AI를 수용하고 활용하기 위한 필수 조건”이라며 “기술 혁신과 위험 관리가 균형을 이룰 때 사회적 신뢰가 확보되고, 이것이 곧 AI 기본사회의 출발점”이라고 말했다. 박 전무는 MS의 '책임 있는 AI 프레임워크'를 소개하며 “거버넌스–매핑–측정–관리 4단계를 통해 위험을 관리하고, 매년 '책임 있는 AI 투명성 보고서'를 공개해 신뢰를 구축하고 있다”고 밝혔다. 곽 팀장은 “AI 안전성은 국제 협력과 과학적 검증체계 구축이 병행돼야 한다”며 위험의 본질에 대한 이해를 강조했다. 올해 'AI, Real Impact'를 주제로 열린 AI World 2025는 과학기술정보통신부와 파이낸셜뉴스가 공동 주최하고 정보통신산업진흥원(NIPA)이 주관했다. 제리 카플란 스탠퍼드대 교수의 기조강연을 비롯해 네이버클라우드, 퓨리오사AI, 업스테이지 등 국내외 기업과 학계·정책 전문가들이 참여해 AI 전략과 사회적 책임을 논의했다. KISDI는 AI 윤리·신뢰성·안전성 정책 연구를 강화하고, 산업계·학계·시민사회와의 협력을 확대할 계획이다. 또 국민 인식 조사, 정책 세미나·포럼을 통해 현장의 목소리를 정책에 반영해 '모두의 AI'와 'AI 기본사회 구현'에 기여한다는 방침이다.

2025.09.29 19:47진성우 기자

李 대통령 "국제적 AI 규범·윤리 만드는데 역할 하겠다"

이재명 대통령이 11일 “국제적 단위에서 인공지능의 규범과 윤리를 만드는 데 일정한 역할을 할 수 있을 것”이라고 밝혔다. 이 대통령은 이날 오전 청와대 영빈관에서 열린 취임 100일 기자회견에서 “인공지능 관련 국제 기구 신설도 중요하지만, 국제적인 규범을 만들어 내는 게 더 급한 일”이라며 이같이 말했다. 이 대통령은 오는 23일부터 미국 뉴욕에서 열리는 UN총회에 참석하는데, 특히 유엔안전보장이사회 의장 자격으로 인공지능과 관련한 공개토의도 주재할 예정이다. UN 차원의 AI 공동 대응 기구 신설에 대한 기자회견 질문에 대해, 이 대통령은 “의장국 임무 수행과 관련해 내부 검토 중이며 최종 확정안이 나오지 않았다”고 답했다. 이어, “인공지능 국제규범이 급한데 유럽 차원에서는 어느 정도 이야기가 진척되고 있고. 한국도 인공지능 윤리와 규제 등 법을 하나 만들어 시행될 예정인데 특정 국가만 할 것이 아니라 우리만 규제 했다가 경쟁에 뒤떨어질 수 있다는 우려도 있다”고 진단했다. 이에 따라 국내에서만 작동하는 인공지능 윤리가 아니라 여러 국가와 함께 논의할 수 있는 규범을 만드는 데 나서겠다는 뜻이다.

2025.09.11 11:20박수형 기자

일상에 스며든 생성형 AI…윤리·법제 대응 전략은?

인간과 인공지능(AI)의 정서 교감으로 인한 윤리 문제·법적 과제를 논의하는 장이 열렸다. 한국IT여성기업인협회(KIBWA)와 한국여성변호사회(KWLA)가 공동 설립한 AI 윤리협의체는 지난 20일 서울 서초구 변호사회관 5층 정의실에서 'AI와 인간의 정서적 교감'을 주제로 포럼을 개최했다고 21일 밝혔다. 이번 포럼은 AI와 인간 감정이 상호작용하는 기술이 빠르게 확산하는 상황에서 마련됐다. 이로 인한 산업·사회적 활용 과정서 발생할 수 있는 윤리적 쟁점과 법적 대응 방안이 논의됐다. 송석영 KIBWA 부회장의 사회로 진행된 포럼에서 김명희 카이스트 교수는 '생성형 AI, 감성과 기술 사이 – 일상생활로 스며드는 AI 혁신 트렌드', 양진영 법무법민 민후 변호사가 'AI와 인간의 정서적 교감: 문제점&법적, 윤리적 과제' 에 대해 각각 발제를 진행했다. 20일 AI 윤리협의체에 따르면 협의체는 이날 오후 6시 서울 서초구 변호사회관에서 'AI와 인간의 정서적 교감' 포럼을 열었다. 현장에는 학계와 법조계, 산업계 인사가 참여해 기술 발전이 불러올 사회적 쟁점을 다뤘다. 이후 진행된 패널토론에서는 KIBWA 정혜인 수석부회장을 좌장으로 이혜윤 법무법인 영 변호사, 김명희 교수, 양진영 변호사가 토론자로 참여해 AI 산업 현장의 경험을 바탕으로 기술과 법률·윤리 간 균형있는 논의를 진행했다. 김덕재 KIBWA 회장은 "AI 기술의 발달로 우리 사회는 새로운 성장 방향이 필요하게 됐다"며 "AI윤리·법제·산업이 결합된 논의를 통해 IT 여성 기업인이 AI 전환 시대의 핵심 주체로 성장할 수 있도록 지원할 것"이라고 밝혔다.

2025.08.21 15:07김미정 기자

로봇이 아이 낳는다고?…'가짜 판명' 임신 로봇, 남은 문제는

지난 주 한 중국 과학자가 세계 최초로 첨단 인공 자궁 시스템을 갖춘 '대리 임신 휴머노이드 로봇'을 1만4천 달러(약 2천만원)에 내놓겠다는 소식에 전 세계가 떠들썩했다. 미국 팩트체크 매체 스노프스는 해당 소식이 가짜뉴스라고 보도했다. 화제의 주인공은 카이와 테크놀로지의 창업자 겸 싱가포르 난양이공대 박사로 알려진 장치펑이라는 인물이었다. 하지만 외신들이 난양이공대 측에 확인한 결과 해당 대학 졸업생 중 장치펑이란 이름을 가진 인물은 없는 것으로 나타났다. 인공자궁 시스템을 갖춘 로봇 역시 개발된 적이 없다고 이 매체는 전했다. 대학 측은 “확인 결과 우리 대학에서 그런 '임신 로봇' 연구가 수행된 적은 없다”고 밝혔다. 이 같은 사실이 알려진 직후 홍콩 현지 일부 매체들은 해당 기사를 삭제했고, 장치펑이라고 소개됐던 인물 사진도 여러 매체에서 삭제된 것으로 파악됐다. IT매체 기즈모도는 19일(현지시간) 임신 로봇이 나올 경우 생길 수 있는 문제를 분석한 기사를 게재했다. 가장 심각한 문제는 로봇 자궁이 제대로 작동하지 않을 경우 태아에게 쉽게 손상을 입히거나 사망에 이르게 할 수 있다는 점이다. 아기는 수경 재배가 아니며, 태반에서 나오는 복잡한 영양소와 여러 신호의 혼합물에 의존해 만들어 진다. 인공지능(AI) 태반이 태아의 성장 속도에 맞춰 섬세하게 모든 조건을 태아에게 제공할 가능성은 매우 희박하다. 위스콘신-매디슨 대학 산부인과 의사 푸시 안은 뉴스위크와의 인터뷰에서 "임신은 매우 복잡한 과정이며, 각 단계가 매우 섬세하고 중요하다"고 말했다. 또, "정신 건강 문제는 말할 것도 없고, 다양한 연령대에서 많은 건강 위험이 나타날 것"이라고 덧붙였다. 더 우려스러운 점은 이 신기술을 어떻게 시험할지, 또 해당 기술 발전에 대한 윤리적 검토가 전혀 되지 않았다는 점이다. 현재 인간 생식의 미래와 로봇이 배아나 유사한 방식으로 임신 활동에 관여하거나 이를 통해 출산된 아이와의 관계와 재산권, 상속권 등 각종 소유권에 어떤 영향을 미칠지에 대한 심각한 윤리적 논쟁이 있다. 장점은 없을까? 만약 해당 기술이 진짜이고 윤리적으로 검증될 경우 로봇 자궁은 불임 연구와 인간의 생식 지원에 새로운 지평을 열 수 있다. 아이를 가질 수 없는 사람들은 약 2천만원 정도 비용으로 미국에서 약 10만~20만 달러(약 1억3천~2억8천만원)에 달하는 대리모를 얻을 수 있게 된다. 또 미숙아로 태어난 아기에게 인공 자궁은 뇌 손상이나 폐손상 등 심각한 합병증을 예방하는 데 도움을 줄 수도 있다. 하지만, 로봇에서 인간 태아를 만드는 과정의 각 단계를 누가 소유할 것인지는 철저한 연구와 논의가 필요하며, 대부분 생명윤리 기준에 미치지 못할 가능성이 매우 높다고 기즈모도는 전했다. 또, 그 과정을 누가 감독하고 위반 사항이 있을 경우 규칙을 시행할 것인지는 또 다른 법적, 윤리적 쟁점이라고 덧붙였다. 비판론자들은 인공 자궁이 완전한 생물학적 권리나 도덕적 고려 없이 "인간과 유사한 개체"를 만들어낼 수 있다는 점을 지적하며, 임신 과정의 오용이나 비인간화 가능성을 우려하고 있다.

2025.08.20 13:48이정현 미디어연구소

"인간은 자원 아닌 주체”...플렉스, AI 신뢰성·안전성 가이드 제정

HR 기업 플렉스가 6대 윤리원칙 'P.A.T.H. For Sustainability'를 골자로 하는 'HR SaaS 시스템의 AI 신뢰성 및 안전성 가이드라인'을 제정 및 공포했다고 20일 밝혔다. 본 가이드라인은 AI 기술이 급속도로 발전하며 영향력이 커지는 가운데, 채용·승진·해고 등 개인의 생계와 경력에 중대한 영향을 미치는 HR 영역의 특수성을 고려한 선제적 조치다. 플렉스는 AI 기술의 윤리적 활용과 잠재적 위험 관리가 지속가능성의 핵심이라는 판단 아래, 단순한 선언을 넘어 구체적인 실행 방안을 담은 '실행 가이드라인'을 마련했다. 가이드라인의 핵심 철학은 플렉스가 자체 수립한 6대 윤리원칙 P.A.T.H. For Sustainability으로 집약된다. P.A.T.H는 ▲개인정보 보호(Privacy) ▲책임성(Accountability) ▲투명성(Transparency) ▲인간 존엄성(Human Dignity) ▲공정성(Fairness) ▲안전성(Safety)의 영문 머리글자다. 특히 인간 존엄성 원칙을 통해 "노동의 가치와 인간의 고유성을 존중하고, 인간을 자원이 아닌 주체로 대우한다"는 철학을 명시했다. AI가 행위자로서 독립적 판단을 할 수 있는 시대에 인간의 주체성을 강조한 대목이다 가이드라인은 AI 시스템의 전 생애주기를 ▲기획·설계 ▲개발 ▲평가·검증 ▲도입·운영 ▲업무 위탁·제3자 활용의 5단계로 나누고, 각 단계별로 발생 가능한 위험과 구체적인 대응 방안을 상세히 규정했다. 특히 '개발' 단계에서는 데이터 거버넌스, 편향 완화, 설명 가능성 구현, 민감정보 처리, AI 오정렬 방지 등 5개 핵심 영역별로 세부 기술 지침을 제시했다. 예컨대 AI가 과거 데이터의 차별적 요소를 학습할 위험에 대응하기 위해 편향성 모니터링 및 데이터·알고리즘·결과 레벨에서의 다층적 완화 전략을 의무화하는 식이다. '평가·검증' 단계에서는 특정 집단에 대한 차별을 방지하고자 Red Team 운영 및 공정성 감사를 도입하는 등 기술적·절차적 안전장치를 촘촘하게 설계했다. 채용·승진·해고의 최종 결정을 개인에 대한 부당한 차별 등 권익 침해나 안전 위험을 초래할 수 있는 '고위험 서비스'로 분류한 점도 눈에 띈다. 플렉스는 해당 영역에 AI를 적용할 경우 인간의 최종 검토를 의무화하고, CEO(최고경영자) 또는 이에 준하는 책임자의 최종 승인을 받도록 하는 특별 관리체계를 구축했다. 이는 AI가 내린 판단을 인간이 최종적으로 통제하고 책임지는 강력한 거버넌스 장치다. 플렉스의 이번 가이드라인은 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법', '개인정보보호법', '저작권법' 및 디지털플랫폼정부위원회와 국가정보원의 가이드라인 등 국내 법규뿐 아니라 EU의 'AI Act'를 포함한 글로벌 규제 동향을 준수한다. 나아가 앤트로픽, 오픈AI 등 글로벌 AI 선도 기업 및 연구기관의 AI 오정렬(AI misalignment, AI가 인간의 의도나 가치와 어긋나게 작동하는 현상)에 관한 최신 연구까지 반영해 실효성과 전문성을 확보했다. 장해남 플렉스 대표는 "HR은 사람의 생계와 미래를 다루는 영역이기에 AI 도입과 활용은 기술적 가능성을 넘어, 인간에게 미칠 영향을 먼저 고려하는 깊은 책임감에서 출발해야 한다"며 "이번 가이드라인은 규제 준수를 위한 형식적 절차가 아닌, '인간 중심 AI SaaS'를 선도하겠다는 플렉스의 철학이자 고객과의 약속이다. 가이드라인을 계속 발전시켜 가장 신뢰할 수 있는 AI SaaS 파트너가 될 것"이라고 밝혔다.

2025.08.20 08:48백봉삼 기자

기상산업기술원 등 7개 기관, 청렴·윤리·인권 실천에 뜻 모아

대전지역 7개 공공기관이 청렴·윤리·인권 가치 실천을 위해 한자리에 모였다. 한국기상산업기술원(원장 황명균)은 국민건강보험공단 대전중부지사·대전사회서비스원·대전신용보증재단·대전평생교육진흥원·소상공인시장진흥공단·한국산림복지진흥원 등 기관과 지난해에 이어 올해도 공동으로 '청렴한빛네트워크 청렴·윤리·인권 실천 결의대회'를 개최했다. 7개 공공기관은 지난 7일과 8일 양일간 약 140명의 임직원이 참석한 가운데 공공기관의 반부패·청렴 의지와 인권 존중 조직문화 실천 의지를 대내외에 천명했다. 결의대회에서는 청렴 실천 선언 이후 ▲반부패 청렴교육 ▲청렴 골든벨 퀴즈 등 프로그램이 이어져, 참여 임직원의 청렴의식을 자연스럽게 높일 수 있도록 구성됐다. 8일에는 지역축제인 '0시 축제' 행사장 일대에서 시민을 대상으로 한 청렴·윤리·인권 캠페인을 전개하며, 공공기관의 사회적 책임과 역할을 홍보하는 시간을 가졌다. 황명균 한국기상산업기술원 원장은 “대전 내 공공기관이 협력해 청렴·윤리·인권 실천 결의대회를 추진하는 등 지속적으로 문화를 확산하기 위해 노력하고 있다”며 “앞으로도 다양한 활동을 통해 시민 여러분께 신뢰를 향상하는 데 최선을 다하겠다”고 말했다. 한편, '청렴한빛네트워크'는 지난해 공동사업의 일환으로 총 6회에 걸친 실무협의회 운영을 비롯해 ▲기관장 합동 청렴 결의 서약 ▲갑질 예방, 이해충돌 방지, 공공재정 환수 등 주제별 비대면 합동 캠페인 ▲합동 청렴 캠페인 ▲반부패 주간 합동 운영 ▲합동 청렴교육(152명 참여) 등 6개 사업을 성공적으로 추진한 바 있다.

2025.08.11 12:00주문정 기자

KT클라우드, 윤리·준법경영 '글로벌 인증' 동시 획득

KT클라우드가 글로벌 수준의 윤리·준법경영 체계를 갖춘 기업으로 공식 인정받았다. KT클라우드는 국제표준화기구(ISO)가 제정한 '부패방지 경영시스템(ISO 37001)'과 '규범준수 경영시스템(ISO 37301)' 인증을 통합 취득했다고 8일 밝혔다. ISO 37001은 조직의 부패 리스크를 사전에 식별하고 이를 방지·관리하기 위한 시스템 구축을 요구하는 국제 표준이며 ISO 37301은 기업의 규범 준수 체계가 글로벌 수준의 요구사항에 따라 수립·운영되고 있는지를 검증하는 경영시스템이다. 두 인증은 기업의 윤리 및 준법 수준을 객관적으로 입증하는 대표적인 지표로 활용된다. KT클라우드는 해당 인증을 동시에 취득하며 글로벌 기준에 부합하는 부패방지 및 준법경영 체계를 구축하고 운영할 수 있는 역량을 공식적으로 인정받았다. 이를 바탕으로 급변하는 외부 환경과 복잡해지는 규제 상황에 선제적으로 대응하고 대내외 리스크를 체계적으로 관리하며 투명한 경영을 통해 사업 경쟁력을 강화해 나간다는 계획이다. KT클라우드는 윤리경영원칙과 준법통제기준을 제정하고 체계적으로 원칙과 기준 준수 여부를 점검해 윤리·준법경영을 기업 행동의 원칙으로 실천해 오고 있다. 또 KT 그룹사 차원의 컴플라이언스 컨설팅 및 진단을 통해 실질적인 준법·윤리 경영 체계를 강화해왔다. 최지웅 KT클라우드 대표는 "ISO 37301과 ISO 37001 통합 인증은 단순한 제도 도입을 넘어 글로벌 수준의 윤리·준법경영 체계를 갖추고 이를 실천하고 있음을 입증하는 중요한 성과"라며 "앞으로도 고객사·협력사와의 신뢰를 더욱 공고히 하고 업계를 선도하는 투명한 경영 환경을 지속적으로 유지해 나가겠다"고 말했다.

2025.08.08 15:03한정호 기자

KISDI, '제4기 AI 윤리정책 포럼' 발족…23인 전문가 위촉

정보통신정책연구원(KISDI)은 과학기술정보통신부와 함께 지난달 31일 서울 중구 포스트타워에서 '제4기 인공지능(AI) 윤리정책 포럼' 출범식을 개최했다고 4일 밝혔다. 이번 행사는 AI 기술 주권 시대에 걸맞은 책임 있는 윤리 기반 마련과 '모두의 AI'를 실현하기 위해 마련됐다. 제4기 'AI 윤리정책 포럼'은 다양한 이해관계자들이 참여하는 사회적 논의의 장으로 운영됐다. ▲최신 국내외 AI 윤리‧신뢰성 이슈에 대한 대응 전략 ▲국민 체감형 정책 설계 ▲AI 3대 강국 도약을 위한 범부처 정책과제 발굴 논의 등 기술·정책·사회 간 가교 역할을 하는 거버넌스 체계를 지향한다. 이날 포럼에는 지난 1월 21일 공포된 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'(AI 기본법)의 시행과 새 정부의 소버린AI 전략에 발맞춰 학계, 산업계, 시민사회, 법조계 등 전문가 23명이 참여했다. 포럼위원장에는 문명재 연세대 행정학 교수로 위촉됐다. 이번 출범식에서는 AI 발전 흐름 속에서 윤리적 기반과 공공 신뢰를 함께 확보하는 방안을 모색했다. 또한 AI 기반 서비스의 윤리적 영향력 식별과 합리적 관리를 지원하기 위한 연구 결과를 발표했다. 주요 내용은 ▲AI 윤리영향평가(영상 합성 서비스 대상) ▲AI 윤리기준 실천을 위한 자율점검표 ▲산업계 실무자를 위한 AI 윤리 교육 콘텐츠 등이다. 이상규 KISDI 원장은 “최근 AI 기술 발전 에 따라, 인간 노동의 소외 등 사회구조적 변화가 가속화되고 있다”며 “AI의 윤리적 활용을 넘어 AI의 사회적 파급효과에 대응하는 방향으로, 본 포럼이 사회적 논의의 구심점 역할을 해주길 바란다”고 밝혔다.

2025.08.04 17:27진성우 기자

KT, 청소년 대상 여름방학 AI윤리캠프 열어

KT가 한국지능정보사회진흥원(NIA), 교보교육재단과 함께 지난달 31일 서울 광진구 세종대학교에서 전국에서 선발된 중학생 80명을 대상으로 AI, 디지털 윤리 토론 캠프 'AI윤리 ON!'을 개최했다고 1일 밝혔다. 청소년들이 AI와 디지털 기술의 윤리적 쟁점을 주도적으로 탐구하고 토론하면서 스스로 윤리적 관점을 형성할 수 있도록 기획된 캠프다. NIA의 디지털 윤리 교육 콘텐츠와 교보교육재단의 청소년 토론 프로그램, KT 대학생 IT 서포터즈(KIT)의 체험형 활동이 결합된 민관협력 프로그램이 진행됐다. KT 대학생 IT 서포터즈(KIT)는 AI 기본 개념부터 알고리즘 원리, 데이터 편향 등 어려운 주제를 다양한 컨텐츠와 퀴즈 형식의 진행으로 학생 눈높이에 맞춰 교육했다. 또 토론과 보드게임 형식을 융합해 개발한 AI 모의법정 게임을 통해 윤리적 이슈를 함께 고민하고 논의하는 등 활동 중심의 교육으로 학습 효과를 높였다. '딥페이크'를 중심으로 생성형 AI 기술이 사회 전반에 미치는 영향을 다각도로 분석하고, 토론을 통해 윤리적인 활용 방안을 함께 모색하는 교육도 진행됐다. 학생들은 딥페이크의 개념과 활용 사례, 관련 법 제도, 범죄 예방 및 대응 방안을 학습하고, 조별 토론을 통해 서로의 생각과 의견을 공유하며 올바른 디지털 윤리 의식을 함양하는 시간을 가졌다. KT는 2023년부터 전국 교육청, 지자체와 협력해 AI·디지털 윤리 관련 사회공헌의 일환으로 11만명의 초등·중학생을 대상으로 디지털 시민 교육을 진행했다. 올해부터는 도서산간 지역 청소년 대상으로 AI 윤리와 연계한 코딩 수업과 이동형 AI 체험관 'AI Station'을 통해 딥페이크· 가짜뉴스를 주제로 한 찾아가는 교육 프로그램을 운영하고 있다. 오태성 KT ESG경영추진실 상무는 “AI 시대에는 청소년들이 기술의 활용만이 아니라 윤리적 판단과 책임감 갖추는 것이 중요하다”며 “디지털 접근성이 낮은 청소년들을 위한 다양한 AI 윤리 교육을 통해 디지털 포용성을 확대하는 데 앞장 서겠다”고 말했다.

2025.08.01 10:50박수형 기자

27일까지 디지털윤리 주간 캠페인 진행

올바른 디지털 이용 문화에 대한 이해와 공감대를 널리 확산시키기 위한 디지털윤리 캠페인이 시작된다. 방송통신위원회와 한국지능정보사회진흥원은 21일 '2025 디지털윤리 주간 캠페인'을 오는 27일까지 일주일간 진행한다고 밝혔다. 디지털윤리를 직접 체험하고 실천할 수 있도록 제주‧부산 등 해수욕장에서 진행되는 '피서지 캠페인'과 서울‧판교 등 직장인 대상 '커피차 행사' 등 다양한 직접 참여형 프로그램으로 운영된다 이와 함께 SNS와 메타버스 등 일상 속에서 쉽게 디지털윤리에 관심을 갖고 실천할 수 있도록 '온라인 캠페인'도 진행할 예정이다. 우선 휴가철을 맞아 오는 23일 제주 이호테우해수욕장과 25일 부산 송정해수욕장에서 디지털윤리 OX퀴즈, 유튜브 구독 행사 등 '피서지 캠페인'을 진행한다. 많은 피서객이 찾는 여름 바닷가에서 디지털윤리를 생각해 볼 수 있는 점이 눈길을 끈다. 21일 서울 청계천과 24일 판교 테크노밸리에서는 커피차와 함께 디지털윤리 실천 캠페인을 운영한다. 커피나 간식을 나누며 '직장 내 AI 윤리인식 투표 캠페인'을 벌여 일상적인 업무환경 속에서 책임있는 인공지능 이용의 중요성을 돌아볼 수 있는 계기를 제공하고자 한다. 디지털윤리 홈페이지와 한국지능정보사회진흥원 인스타그램, 유튜브 '아름다운 디지털 세상'에서도 다양한 참여형 행사가 열린다. 방통위는 디지털윤리 주간과 함께 오는 10월까지 수시로 참여할 수 있는 '디지털윤리 도장찍기' 행사도 운영한다.

2025.07.21 16:15박수형 기자

전기안전공사, '사람 중심' AI 윤리원칙 첫 제정

한국전기안전공사(대표 남화영)는 인공지능(AI) 기술의 사회적 확산에 따른 기술 활용 윤리 기준 마련을 위해 'AI 윤리원칙'을 제정했다고 19일 밝혔다. 최근 공공기관을 포함한 전 산업분야에서 생성형 AI 활용이 빠르게 확산하면서 기술 활용에 수반되는 윤리적 위험 예방과 신뢰성 확보가 사회 주요 이슈로 대두됨에 따른 선제적 조치다. 전기안전공사가 제정한 AI 윤리원칙은 ▲인간 존엄성 ▲공공성 ▲다양성 존중 ▲투명성 ▲데이터 관리 ▲신뢰성 및 개인정보보호 ▲인간의 감독 ▲안전성 ▲윤리적 활용 ▲협력 및 연대성 등 10대 핵심가치를 담았다. 10대 핵심가치는 유네스코(UNESCO)와 경제협력개발기구(OECD) 등 국내외 주요 기준과 연구 결과를 바탕으로 마련됐다. 핵심가치는 전기안전공사의 경영이념인 '사람존중 열린경영'을 실현하는 새 윤리원칙이자 디지털 체계 구축 길잡이로 활용될 예정이다. 전기안전공사는 앞서 지난해 AI 기술을 활용한 AI 사원 '이바름(e-바름)' 프로그램을 개발해 감사업무를 비롯한 예산·노무·인사 관리 등 분야 업무 효율성을 높였다. 전기안전공사는 이러한 노력을 인정받아 국민권익위원회가 후원하는 윤경ESG포럼에서 '윤리경영 우수상'을 수상하기도 했다. 남화영 전기안전공사 사장은 “공공부문에서 인공지능 기술을 활용함에 있어 가장 중요한 것은 안전성과 신뢰성”이라며 “AI 윤리원칙 제정을 시작으로 국민에게 신뢰받는 전기안전 기술 서비스 제공을 위해 힘쓸 것”이라고 밝혔다.

2025.06.19 15:18주문정 기자

국제인공지능윤리협회, 경북 청소년 AI 경연 개최…"기술 이해하는 세대가 이긴다"

국제인공지능윤리협회(IAAE)가 경북 지역 청소년을 대상으로 생성형 인공지능(AI)을 활용한 창의력 경연대회를 연다. AI의 윤리적 활용 역량을 조기에 길러 교육 격차를 줄이고 기술 친화적 학습 문화를 정착시키겠다는 포부다. 국제인공지능윤리협회는 다음달 5일 경북 안동국제컨벤션센터에서 '생성형 AI 크리에이티브 경연대회'를 개최한다고 14일 밝혔다. 본 행사는 안동시와 한국정신문화재단이 주최하고 EBS와 안동국제컨벤션센터가 공동 주관하는 '2026 진학 드림캠퍼스 IN 안동'의 일환으로 진행된다. 이번 대회는 안동·경북 지역의 예비 고등학생 및 고등학교 재학생을 대상으로 하며 선착순 50팀을 모집한다. 팀은 개인 또는 2인 1팀으로 구성 가능하며 참가자는 사전교육을 수료한 뒤 예선과 본선, 심사를 거쳐 시상받게 된다. 총 10개 팀이 수상 대상으로 선정되며 수상자에게는 안동시장상, EBS 사장상, 국제인공지능윤리협회 이사장상, 장려상 등이 수여된다. 비수상자 전원에게도 참가상이 지급되며 수상작은 협회 홈페이지에 전시돼 우수 사례로 소개된다. 참가 신청은 국제인공지능윤리협회 홈페이지를 통해 가능하며 생성형 AI에 대한 기본 교육부터 시작해 실제 창작까지 이어지는 구조로 설계됐다. 협회 측은 기술 습득과 함께 윤리적 판단 능력을 함께 키울 수 있도록 구성했다고 밝혔다. 이번 경연은 지역 청소년에게 AI를 활용한 실전 경험을 제공하는 동시에 급변하는 교육 환경 속에서 균형 잡힌 AI 리터러시 교육 모델을 실험하는 시도로 평가된다. 생성형 AI의 비약적 확산에 따라 지역 간 교육 기회의 편차를 줄이려는 취지도 있다. 본 경연이 포함된 'EBS와 함께하는 2026 진학 드림캠퍼스 IN 안동' 행사는 지역 학생과 학부모를 위한 입시 전략 설명회 성격의 행사다. 이 자리에서는 EBS 진학 전문 교사의 맞춤형 대학입시 상담, 국영수 학습 전략 강연, 고교학점제 및 대입 설명회, 과학커뮤니케이터 '궤도'의 진로 특강 등 기타 프로그램도 함께 운영된다. 전창배 국제인공지능윤리협회 이사장은 "생성형 AI는 이제 일상과 교육 현장에서 빠질 수 없는 도구가 됐다"며 "이번 대회를 통해 학생들이 AI와 협업하는 방법을 배우고 윤리적 인식을 갖춘 미래 인재로 성장하길 기대한다"고 밝혔다.

2025.06.14 21:15조이환 기자

방통위, 디지털윤리 창작콘텐츠 공모

방송통신위원회는 한국지능정보사회진흥원과 함께 '2025년 디지털윤리 창작콘텐츠 공모전'을 개최하고 10월2일까지 작품 접수를 진행한다고 밝혔다. 디지털 역기능으로부터 안전을 지키고 올바르게 디지털을 이용하기 위해 갖춰야 할 기본적 소양인 '디지털윤리'를 주제로 진행되며, 이에 대한 콘텐츠 기획‧제작 과정을 통해 국민 관점의 디지털윤리 인식제고 및 교육 콘텐츠를 발굴한다. 공모 분야는 '인식제고 콘텐츠'와 '학습 콘텐츠' 두 개 분야로 나눠 진행된다. 인식제고 콘텐츠 분야는 ▲그림일기(초등학생) ▲포스터 ▲카드뉴스 ▲디지털 만화(웹툰) ▲동영상(일반영상, 숏폼)을 공모하며, 학습 콘텐츠 부문은 교과 연계 및 창의적 체험활동의 교수 학습지도안을 모집한다. 특히 최근 중요하게 인식되는 인공지능 윤리에 대한 관심을 높이기 위해 '첨단조작기술영상 기술의 부작용 또는 올바른 활용 방안'과 '생성형 인공지능 개발 및 활용 시 윤리적 문제'를 다룬 작품에 가점을 부여한다. 청소년과 성인, 군장병, 교사 및 예비교사 등 대한민국 국민 누구나 참여할 수 있으며, 개인 또는 3명 이내 팀으로 지원할 수 있다. 심사는 오는 10월 형식요건 및 규격에 대한 심사를 거쳐 외부전문가 심사단의 본심사, 국민참여심사를 포함한 상훈심사를 통해 순위가 결정된다. 오는 12월 '2025년 디지털윤리대전'을 통해 최종 수상자를 발표할 예정이며 대통령상, 국무총리상, 방통위원장상, 교육부장관상, 국방부장관상 등 총 25점을 선정한다. 수상작은 디지털윤리 홈페이지에 공개하며 관련 SNS 콘텐츠 제작 등 디지털윤리 교육 및 홍보에 활용될 예정이다.

2025.06.02 09:37박수형 기자

과기정통부-AI 안전연구소, AI 주도권 전략 공개…"산업·리스크 동시 대응"

인공지능(AI) 기술이 국가 전략의 중심축으로 부상한 가운데 정부기관이 기술 리스크와 산업 경쟁력 양면을 짚는 자리가 마련됐다. AI 인프라 확충과 인재 육성에 나선 정부, 기술 신뢰성과 안전 기준을 제시한 연구기관 모두 '위험 관리'를 전제로 한 성장 전략에 공감대를 드러냈다. 국제인공지능윤리협회(IAAE)는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC)' 컨퍼런스를 개최했다. 이날 행사에는 과학기술정보통신부(과기정통부)와 AI 안전연구소를 비롯해 LG유플러스, 주요 스타트업 등 공공과 민간 주요 주체들이 참여했다. 이날 공공부문 발표에서는 공진호 과학기술정보통신부 인공지능기반정책과장이 정부의 AI 육성 전략과 인프라 투자 방향을 설명했다. 이어 김명주 AI 안전연구소장이 기술 리스크 분류 체계와 글로벌 안전 기준 정립의 필요성을 짚었다. 과기부 "GPU·인재·모델 3축 강화…1.9조로 산업기반 재편할 것" 이날 '대한민국의 AI 정책 대응'을 주제로 발표에 나선 공진호 과학기술정보통신부(과기정통부) 인공지능기반정책과장은 글로벌 경쟁 환경에서 한국이 직면한 현실과 정부의 대응 전략을 짚었다. 공 과장은 발표 서두에서 딥시크 등장 이후 AI 패권 경쟁이 새로운 국면으로 접어들었다고 진단했다. 미국의 '스타게이트' 프로젝트, 유럽연합(EU)과 프랑스의 대규모 투자 발표, 중국의 기술 진보 등을 언급하며 글로벌 주도권 경쟁이 양적 확대를 넘어 질적 전환기에 접어들었다고 분석했다. 그는 "한국의 현주소를 두고 보면 미국과 중국 등 선도국과는 여전히 격차가 존재한다"면서도 "자체 모델 개발 수, 특허와 논문 성과 등을 고려할 때 싱가포르, 이스라엘, 프랑스 등과 함께 3위권 수준의 경쟁력은 확보하고 있다"고 평가했다. 이 격차를 좁히기 위한 첫 번째 대응으로 정부는 AI 컴퓨팅 인프라 확충에 나선다. 광주 AI 데이터센터를 중심으로 엔비디아 'H100' 그래픽처리장치(GPU) 416장을 확보해 임대 공급할 예정이며 민간 클라우드 자원까지 동원해 연내 총 1만 장 이상을 확보하겠다는 계획이다. 정부는 국산 AI 반도체 생태계 구축에도 힘을 싣는다. 퓨리오사, 리벨리온 등 국내 기업 중심으로 실증 프로젝트를 추진해 오는 2030년까지 국산 반도체 활용 비중을 절반 이상으로 끌어올리겠다는 목표다. 이와 함께 AI 인프라 투자에 대한 세제 혜택도 대폭 확대된다. 또다른 축은 차세대 모델 개발이다. '월드 베스트 거대언어모델(LLM)' 프로젝트를 통해 경쟁력 있는 팀을 선발하고 여기에 GPU, 데이터, 인재 등 핵심 자원을 집중 투입한다. 3년 내 글로벌 상위권 LLM을 확보한다는 목표다. 이와 연계해 AI 챌린지도 개최된다. 고급 인재 확보를 위한 전략도 제시됐다. 뉴욕대와 협력해 만든 '글로벌 프런티어 랩'을 시작으로 유럽과 중동으로 거점을 확대하고 실무형 인재 양성을 위한 이노베이션 아카데미와 AI 융합대학원 설립도 추진된다. 해외 우수 인재 유치를 위한 인센티브 설계도 병행된다. 산업 전환 지원도 주요 정책 중 하나다. 제조, 의료, 법률, 문화 등 다양한 분야에서 공공수요를 기반으로 AI 도입을 촉진하고 수요기업과 공급기업의 매칭을 통해 생태계를 활성화한다는 구상이다. 이를 위해 여러 부처와 공동으로 대규모 플래그십 프로젝트도 준비 중이다. 1조9천억원 규모의 AI 추경 예산에 대한 세부 집행 계획도 공개됐다. GPU 확보에 1조6천억원, 반도체 실증에 900억원, 정예팀 LLM 지원에 2천억원, 인재 육성 프로그램에 400억원, 벤처 캐피털(VC) 연계 펀드에 1천억원 등으로 세부 배분이 이뤄진다. 공진호 과기정통부 과장은 발표를 마치며 "내년에 시행되는 AI 기본법은 산업 진흥과 신뢰 확보를 균형 있게 담은 법안"이라며 "고영향 AI에 대한 고지 의무와 사업자 책임 등을 중심으로 한 규제 조항은 하위 법령에서 구체화될 예정"이라고 밝혔다. 이어 "업계 부담 최소화를 최우선으로 법령 설계를 진행 중"이라고 강조했다. AI 안전연구소 "AI 리스크 해소는 경쟁력…英과 보안 협력 확대한다" 이어 발표에 나선 김명주 AI 안전연구소장은 AI 기술의 위험성과 이를 둘러싼 국제적 대응 흐름을 짚으며 기술 안전성과 사회적 신뢰 확보의 필요성을 강조했다. 그는 AI 위험을 단순한 규제 이슈가 아닌 '글로벌 경쟁력의 조건'으로 봐야 한다고 봤다. 김 소장은 '챗GPT' 등장 이후 AI 기술의 파급력이 전통적 거대 기업의 질서를 뒤흔든 과정을 되짚으며 발표를 시작했다. 오픈AI가 만든 기술이 구글의 검색 패러다임을 위협한 사례를 통해 예측 불가능한 기술 변화가 산업과 정책의 균형을 흔들 수 있음을 경고했다. AI 시스템의 잠재적 리스크에 대한 국제적 분류 기준도 소개됐다. 김 소장에 따르면 EU는 시스템 위험 수준에 따라 AI를 구분하고 있으며 특히 'GPT-4' 수준의 고성능 모델은 '시스템 리스크'로 분류된다는 점에서 제도적 대응이 시급하다 그는 영국, 미국, MIT 등 주요 기관들의 리스크 정의도 언급했다. 단순한 기술적 오류를 넘어서 악용 리스크, 사회적 불평등 심화 등 다차원적 위험 요소가 존재하며 AI 리스크는 정량적 분석과 경험 기반 데이터 축적을 통해 관리돼야 한다는 것이다. 김 소장은 "우리 연구소 역시 '리스크 맵'을 구축하는 작업을 시행하고 있다"며 "MIT와 협업해 축적한 1천700여 개 사례를 기반으로, 기술·의도·사고 시점에 따른 분류 체계를 수립 중이며 이를 통해 구체적인 평가 도구와 안전 보고서를 생산하고 있다"고 설명했다. AI 평가 방식에 대해서도 언급됐다. 연구소는 물리적 제품, 임베디드 모델, 챗봇 등 다양한 형태의 AI에 대해 실제 사용 맥락에서 리스크를 분석하고 전담 인력이 결과를 검토하거나 AI 기반 평가 도구로 통합 평가를 수행하는 체계를 갖추고 있다. 특히 외국계 모델에 대한 검증 사례도 소개됐다. 중국 딥시크의 정치적 편향 사례를 예로 들어 불완전한 AI를 활용할 경우 발생할 수 있는 오용 가능성과 편향 전파 리스크를 지적하고 이를 중화시키는 파인튜닝 기법 등을 연구소가 제공하고 있다고 밝혔다. 이 과정에서 AI 개발사와 협약을 맺고 기밀 유지 하에 평가를 진행한다. 김 소장은 "우리는 '규제자'가 아닌 '조력자'로서의 역할을 수행한다"며 "국내 기업이 글로벌 수준의 안전 기준을 갖추고 기술 수출 경쟁력을 확보할 수 있도록 지원하는 기능에 방점을 찍었다"고 말했다. 향후 역할 확대 가능성에 대해서도 입장을 밝혔다. 영국 AI안전연구소처럼 '보안'과 '안보' 기능까지 포괄할지에 대한 기자의 질문에 김명주 AI 안전연구소장은 "지난번 파리 정상회담에서 영국 AI 안전연구소 측과 만나 들은 바에 따르면 이 조직도 인력 부족을 겪어 선택과 집중 중"이라며 "우리는 일단 안전이 가장 포괄적 개념으로, 명칭과 구조는 유지할 예정"이라고 말했다. 이어 "영국과 보안 분야 전략적 협력 추진 중으로, 내부적으로도 관련 인력 보강과 기능 확대를 계획하고 있다"고 밝혔다.

2025.05.27 17:21조이환 기자

[현장] "AI 도입, 기술만큼 신뢰·안전도 중요"…기업이 갖춰야 할 조건은?

국내 인공지능(AI) 기업들이 생성형 AI 도입에 있어 기술만큼이나 신뢰성과 안전성을 우선 과제로 제시했다. 국제인공지능윤리협회(IAAE)는 27일 서울 삼성동 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC) 컨퍼런스'를 개최했다. '변화하는 AI 환경에서의 기업 경쟁력 확보'를 주제로 열린 이번 행사에는 셀렉트스타, LG유플러스, 원티드랩, AI3 등 공공·민간 주요 조직들이 참여했다. 이날 황민영 셀렉트스타 부대표는 생성형 인공지능(AI)을 도입할 때 핵심은 기술력 자체보다 신뢰성과 안전성을 정량적으로 평가하고 관리할 수 있는 체계를 갖추는 데 있다고 강조했다. 특히 산업 특성과 조직의 정책에 맞춘 맞춤형 벤치마크와 '레드팀' 검증이 도입 여부를 좌우하는 만큼, 단순한 모델 성능보다 사전 평가 체계의 구축이 더 시급하다고 진단했다. 황 부대표는 LLM 평가 방식으로 크게 세 가지 접근법을 제시했다. 객관식 기반의 벤치마크인 '자동평가', 사람이 직접 점수를 매기는 '휴먼 평가', 모델이 다른 모델을 평가하는 LLM 기반 평가다. 현업에서는 이 세 방식을 혼합해 쓰고 있으며 시험지처럼 만드는 벤치마크는 빠르고 효율적이고 LLM 평가는 반복 작업을 대체하는 수단으로 유용하다. 또 그는 기업의 도입 결정에서 신뢰성 문제로 LLM을 도입하지 못하는 경우가 빈번하다는 점을 지적했다. 대기업 챗봇이 경쟁사 제품을 추천한 사례나 해외 항공사 챗봇이 잘못된 가격 정보를 안내해 법적 책임을 지게 된 사례처럼 잘못된 출력으로 인한 금전적·법적 손해가 현실화되고 있다는 것이다. 이같은 문제를 해결하려면 도입 전 신뢰성 검증 체계가 필수적이라는 게 황 부대표의 판단이다. 기업별 정책과 업무 목적에 따라 정확성·정책 적합성·유해성 등 다양한 기준을 사전에 마련하고 반복 검증을 통해 모델의 응답 수준을 평가해야 한다는 것이다. 여기에 더해 위장된 질문을 활용해 잠재적 위험 발화를 사전에 탐지하는 '레드팀' 방식의 검증도 병행해야 한다. 셀렉트스타는 지난 2018년 설립된 이후 이 같은 과제를 해결하기 위해 평가 데이터셋 구축, 레드팀 챌린지 운영, 맞춤형 테스트 설계 등을 수행해 왔다. 최근에는 자동화 솔루션 '다투모 이밸(DATUMO eval)'을 통해 기업별 LLM을 체계적으로 검증하고 있다. 황민영 셀렉트스타 부대표는 "AI가 답변을 잘 요약했는지, 정책을 따랐는지, 위험한 말을 했는지를 평가할 수 있는 기준과 매트릭스를 기업 스스로 구성해야 한다"며 "생성형 AI 도입은 더 이상 기술이 아닌 책임과 평가의 문제로 넘어갔다"고 덧붙였다. 이날 또다른 발표를 진행한 주형민 원티드랩 AX사업 총괄은 생성형 AI 도입은 기술이 아닌 통제와 책임의 문제라고 강조했다. 기술보다 조직 구조, 거버넌스 체계 정비가 우선이라는 주장이다. 주 총괄은 최근 기업들이 AI를 주요 업무에 활용하면서 에이전트 기반의 구조로 급속히 전환하고 있다고 밝혔다. 이 과정에서 오류가 누적될 경우 전체 시스템 신뢰도를 갉아먹을 수 있다고 경고했다. 그는 "복수 에이전트의 조합은 작은 오류도 누적되면 전체 리스크로 이어진다"며 "기술 성능보다 중요한 건 데이터 흐름 추적과 운영 통제"라고 강조했다. 원티드랩은 이를 반영해 에이전트 통계, 요금 통제, 사용 이력 관리 등 통제 기능을 자체 플랫폼에 구축한 상태다. 특히 민감정보 대응과 내부 사용 통제를 핵심 기능으로 삼았다. 주형민 총괄은 "AI 전담조직도 역할을 바꿔야 한다"며 "AI는 누구나 쓸 수 있어야 하며 구조가 이를 뒷받침해야 한다"고 강조했다. 이어 발표를 진행한 한영섭 LG유플러스 AI테크랩장은 AI 확산 논의가 생산성과 효율에 치우쳐 있다며 안전과 신뢰에 대한 논의가 병행돼야 한다고 강조했다. 한 테크랩장은 "AI가 실제로 도움이 되려면 먼저 안심하고 쓸 수 있어야 한다"고 말했다. 이같은 목표를 달성하기 위해 LG유플러스는 '어슈어드 인텔리전스'를 핵심 전략으로 제시했다. AI가 만든 음성을 판별해 보이스피싱 등 음성 기반 범죄를 차단하는 '안티 디보이스', 통화 내용을 서버로 전송하지 않고 기기 내에서만 처리하는 '온디바이스 LLM', 양자암호 기반의 통신 보안 기술이 그 축이다. 이 전략이 적용된 대표 서비스가 통화 에이전트 '익시오(XiO)'다. 스팸 응답, 음성 분석, 보이스피싱 탐지 기능을 AI가 수행하지만 개인정보는 모두 단말기 안에서만 처리된다. 또 AI가 생성한 텍스트나 음성, URL 링크를 탐지해 위험 여부를 사전에 차단하는 기능도 함께 개발 중이다. 한 단장은 "AI의 위협을 AI로 막는 구조가 필요하다"며 "기술적 대응은 매우 중요하다"고 역설했다. LG유플러스는 그룹 AI 연구원과 협력해 자체 LLM '익시젠(XiGen)'도 운영 중이다. 기존 엑사원 모델을 기반으로 산업별 도메인에 특화한 경량 LLM을 개발하고 있으며 스마트폰 등 디바이스 탑재를 목표로 상용화를 추진 중이다. 한영섭 AI테크랩장은 "AI가 만든 콘텐츠를 알아채지 못하는 상황이 곧 현실이 될 것"이라며 "AI의 확산과 함께 신뢰 체계를 구축하는 것도 기업의 책임"이라고 말했다.

2025.05.27 15:46조이환 기자

[현장] IAAE, AI 윤리 산업 컨퍼런스 개최…"기업, 안전 확보해야 경쟁력 따른다"

국제인공지능윤리협회(IAAE)가 기업 경쟁력 관점에서 인공지능(AI) 윤리를 조망하는 만남의 장을 열었다. 빅테크부터 스타트업, 공공기관까지 AI 시대의 생존 전략을 재정립하기 위해서다. IAAE는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC)' 컨퍼런스를 개최했다. 이번 행사는 내년 시행 예정인 AI 기본법을 앞두고 마련됐으며 과학기술정보통신부, AI 안전연구소(AISI), LG유플러스 및 주요 스타트업 등이 참여했다. 행사 주제는 '변화하는 AI 환경에서의 기업 경쟁력 확보'로, 단순한 법제 논의를 넘어 산업 현장의 실제 이슈를 다루는 데 초점이 맞춰졌다. 빅테크와 공공의 'AI 안전' 접근 방식이 충돌하는 상황에서 비영리 윤리기관이 조정자로 나섰다는 점에서 주목된다. 행사 운영은 테크 스타트업 PR 전문 에이전시인 팀쿠키가 맡았으며 프로그램은 공개 패널토론과 현장 사례 중심으로 구성됐다. 전창배 국제인공지능윤리협회 이사장은 이날 개회사를 통해 AI 기술과 산업 진흥이 차기 대통령 선거의 주요 공약으로 떠오른 상황에서 대부분 후보들이 'AI 강국'을 지향하고 있다는 점에 주목했다. 다만 기술 투자에 대한 공감대와 달리 AI 윤리와 안전에 대한 논의는 여전히 부족하다고 지적했다. 전 이사장은 "기술 투자에 반대할 사람은 없지만 윤리와 안전이 뒷받침되지 않으면 글로벌 시장에서 우리 경쟁력이 진정으로 인정받기 어렵다"며 "기술과 윤리는 어느 하나를 우열로 나눌 수 없는 문제"라고 강조했다. 그는 오픈AI, 구글, 앤트로픽 등 주요 글로벌 기업들이 AI 제품 출시 전 윤리 검증과 가치 정렬, 품질 검사를 철저히 거치는 사례를 언급하며 기술만 앞세운 접근 방식은 더 이상 유효하지 않다고 판단했다. 이어 올해 초 제정된 AI 기본법이 내년 1월부터 시행되는 만큼 정책의 실제 이행 여부가 기업 경쟁력에 직결될 것이라고 봤다. 전창배 IAAE 이사장은 "선거 이후 어떤 후보가 당선되더라도 AI 기본법의 원칙을 구체적 정책으로 연결해야 한다"며 "이번 행사가 정부와 산업계 모두에게 실질적 방향성을 제공하는 계기가 되기를 바란다"고 말했다. 이어 환영사를 진행한 임기태 팀쿠키 부대표는 지난해에 이어 올해도 행사를 후원한 이유에 대해 설명했다. 그는 협업을 통해 AI의 강력한 가능성을 직접 체감했고 그 과정에서 기술의 사회적 책임에 대한 고민도 깊어졌다고 밝혔다. 임 부대표는 "신뢰할 수 있는 AI란 무엇인가, 안전하면서도 유용한 AI를 구현하려면 어떤 원칙이 필요한가에 대한 논의의 장이 필요하다고 판단했다"며 "기술을 만드는 분들과 정책을 설계하는 분들 모두가 지속 가능한 AI에 대해 입체적이고 실질적인 이야기를 나누는 자리가 되길 바란다"고 말했다. 더불어 그는 팀쿠키가 IAAE와 업무협약을 체결하며 산업과 윤리 사이의 가교 역할을 자처해 왔다고 설명했다. 이번 컨퍼런스 역시 이 연장선에서 민간-공공, 기업과 학계가 머리를 맞대는 공동 논의의 장으로 기획됐다고 덧붙였다. 임기태 팀쿠키 부대표는 "공공, 기업, 학계 전문가들이 한자리에 모인 만큼 귀중한 인사이트를 나누고 건설적인 이정표를 함께 만들어나가는 계기가 되길 기원한다"고 강조했다.

2025.05.27 11:08조이환 기자

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

[디지털자산법 표류①] 금융위에 물거품된 민주당TF 노력, 업계 반발은 여전

7년차 공무원이 만든 AI 도구, 국회서 극찬… "이것이 진짜 국가 AI 혁신"

백종원 더본코리아 "잃어버린 1년...음해·공격 법적 책임 묻겠다"

테슬라 FSD 무단 활성화 '불법'…국토부 "2년 이하 징역"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.