• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
AI페스타
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'개인 식별'통합검색 결과 입니다. (2건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI 기반 인사관리 위한 전제조건...'HR 데이터의 비식별화'

디지털 전환의 물결 속에서 인사관리(HR)의 영역도 빠르게 변화하고 있다. 단순 행정 업무를 넘어, 채용·이직 예측·성과 분석·조직 진단 등 기업의 전략적 의사결정에 HR 데이터가 직접 활용되기 시작했다. 특히 AI 기반 분석 도구가 확산되며, 많은 기업이 HR 솔루션 도입을 고민하고 있다. 하지만 이 과정에서 반드시 먼저 짚고 넘어가야 할 전제가 있다. 바로 'HR 데이터의 민감성'과 '비식별화' 문제다. 일반적으로 '개인정보'라고 하면 이름·주민등록번호·연락처 같은 식별자를 떠올리기 쉽다. 그러나 HR 데이터에는 이보다 훨씬 광범위하고 복합적인 정보가 포함된다. 직무 이력·평가 결과·상담 기록·병가 사유·건강검진 결과 등은 직원 개인의 성향과 상태를 민감하게 보여주는 정보다. 최근에는 조직문화 분석을 위해 직원 의견조사, 정성 코멘트 등 비정형 데이터 수집도 늘고 있다. 많은 기업이 AI 기반 인사관리를 도입하려고 할 때, 가장 먼저 마주치는 장애물도 여기에 있다. 실제로 내부 데이터를 활용하려 하면, 어디까지 정제하고 익명화해야 하는지 실무자는 막막함을 느끼는 경우가 많다. HR 데이터는 단순히 이름과 주민번호를 가린다고 보호되는 정보가 아니다. 예를 들어 '기획팀, 대리, 1990년생, 여성'이라는 속성 조합만으로도 특정 인물을 유추할 수 있다. 개별적으로는 익명처럼 보이는 정보도, 조합되면 강력한 식별성이 생기는 것이다. 따라서 단순한 익명화 수준을 넘어, 통계적 기법에 기반한 정교한 비식별화가 필요하다. 해외에서는 k-익명성(k-anonymity), ℓ-다양성(ℓ-diversity), t-근접성(t-closeness) 같은 수학적 모델을 활용해 식별 위험을 사전에 평가하고 통제하고 있다. 또한 상담 일지나 정성 코멘트처럼 자유 서술형 비정형 텍스트는 자연어처리(NLP) 기술을 통해 별도의 비식별화 절차를 가져야 한다. 이러한 과정을 거쳐야만 AI가 데이터를 안전하게 학습하고, 예측 및 분석에 활용할 수 있다. 다행히 국내에서도 최근 몇 년 사이, HR 데이터를 안전하게 활용하기 위한 제도적 기반이 조금씩 마련되고 있다. 2020년 개인정보보호법 개정 이후 '가명정보' 개념 도입을 시작으로, 개인정보보호위원회는 2023년 민감정보 처리 가이드라인을 발표하며 인사 데이터 처리의 기본 원칙을 제시했다. 2024년에는 '가명정보 결합 전문기관 제도'도 확대 시행되며, 기업이 데이터를 안전하게 가공하고 결합·분석할 수 있는 실질적 수단도 마련되고 있다. 그럼에도 여전히 현장에서는 제도 취지는 이해하지만, 실무 적용이 어려운 경우가 많다. 특히 HR 데이터는 급여, 평가, 근태 시스템 등 여러 플랫폼에 분산돼 있고, 클라우드 기반 솔루션이나 외부 위탁 운영도 늘어나면서 데이터 처리 책임의 경계가 모호해지는 경우가 발생한다. 많은 기업이 AI 기반 인사관리 도입을 계획하지만, 실제로는 '데이터 처리 단계'에서 멈추는 경우가 적지 않다. 기술은 준비돼 있어도 데이터를 정제하고 보호할 역량이나 인력이 부족하기 때문이다. 특히 중견·중소기업은 인사 담당자가 평가, 채용, 노무, 급여 등 다양한 업무를 동시에 수행하고 있어 데이터 거버넌스와 개인정보 보호까지 함께 담당하기엔 현실적 제약이 크다. 또 외부 솔루션을 도입하더라도 계약서에 명확한 보안 조항이나 데이터 비식별화 기준이 포함되지 않으면 추후 문제가 발생했을 때 대응이 어렵다. 기업 내부에서 실무자, 법무팀, 보안팀 간 역할과 책임을 계약서나 내부 지침에 따라 명확히 정립해야 하지만, 아직 이를 위한 체계를 갖추지 못한 기업이 많다. 기업이 HR 데이터를 안전하게 활용하기 위해서는 실무자 차원에서 ▲데이터 분류 ▲속성 조합의 식별 가능성 평가 ▲비정형 데이터 유무 확인 ▲외부 위탁 시 계약서 책임 조항 검토 ▲재식별 검증 및 로그 보관 체계 ▲AI 분석 목적일 경우 최소 정보 수집 여부 등을 확인해야 한다. 이런 체크리스트는 단순히 개인정보 보호법 준수를 위한 항목이 아니라, 조직 내 구성원 신뢰를 구축하고 인재 데이터를 전략적으로 활용하기 위한 기본 인프라다. 휴먼컨설팅그룹은 휴넬·제이드·탈렌엑스 등 자사 HR 솔루션에 이러한 요건을 체계적으로 반영해, HR 데이터 보호와 활용의 균형을 실현하고 있다. 인재 데이터를 다룬다는 것은 곧 구성원 한 사람 한 사람의 민감한 정보를 마주한다는 의미다. 이는 단순한 기술 문제를 넘어 조직의 윤리 수준과 신뢰 문화를 드러내는 지표이기도 하다. HR 데이터의 비식별화는 인사 실무자, 경영진, 보안 책임자 모두가 공동으로 고민하고 협업해야 할 과제다. “데이터 보호는 곧 구성원 보호”라는 인식이 조직 문화에 뿌리내릴 때, 기업은 비로소 AI를 진정한 HR 파트너로 받아들일 준비를 마쳤다고 할 수 있다.

2025.07.31 08:30허욱

"CCTV 영상 속 내 정보 어떻게?"...개보위, 비정형데이터 기준 마련

개인정보보호위원회가 비정형데이터에 대한 가명처리 기준을 새롭게 마련했다고 4일 밝혔다. 최근 인공지능(AI) 기술과 컴퓨팅 자원의 발달로 비정형데이터(이미지·영상·음성·텍스트 등)에 대한 활용수요가 폭발적으로 증가했다. 하지만, 기존의 '가명정보 처리 가이드라인'('가이드라인')은 정형데이터에 대한 처리기준만 제시하고 있어 기업, 연구기관 등은 적합한 가명처리 방법이나 수준을 알지 못하는 등 현장의 불확실성이 컸다. 관계부처 의견수렴 등 1년여 기간 동안 준비 작업을 거쳐 가이드라인을 대폭 개정했다. 우선, 비정형데이터는 개인식별 가능 정보에 대한 판단이 상황에 따라 달라질 수 있는 만큼, 데이터 처리목적 및 환경, 민감도 등을 종합적으로 고려해 개인식별 위험을 판단하고 합리적인 처리방법과 수준을 정하도록 했다. 예를 들어, 정형데이터의 경우, 주민번호, 전화번호, 주소 등과 같이 개인식별위험이 있는 정보가 비교적 명확히 구분되지만, 비정형데이터는 그렇지 않다. 개인정보위는 가이드라인에서 제시한 개인식별 위험성 검토 체크리스트를 통해 식별위험을 사전에 진단하고, 위험을 낮추기 위한 관리적‧환경적 통제방안을 마련해 활용토록 했다. 연구목적 달성에 필수적인 정보항목을 남기는 경우에는 그 외 정보에 대한 가명처리 수준을 높이거나 접근권한 통제, 식별에 악용될 수 있는 소프트웨어(SW) 반입제한, 보안서약서 징구 등 조치를 시행하도록 했다. 또 비정형데이터에 내재된 개인식별 위험 요인을 탐지해 처리할 수 있는 기술이 아직 없기 때문에, 기술적 한계 등을 보완하기 위한 조치들을 이행할 것을 권고했다. 가명처리 기술의 적절성·신뢰성을 확인할 수 있는 근거를 작성·보관하고, 가명처리 결과에 대해 자체적인 추가검수를 수행하도록 했다. 또한 처리기술의 적절성·신뢰성을 확인할 수 있는 근거와 추가검수 등에 대해서 외부전문가가 참여한 위원회의 적정성 검토를 받도록 했다. 아울러 비정형데이터는 인공지능 및 데이터 복원기술의 발달에 따라 다른 정보와의 연계·결합 없이도 개인을 재식별해낼 수 있는 위험이 있으므로, 가명처리된 비정형데이터 활용 시 관련 시스템·소프트웨어(SW)의 접근·사용 제한 등 통제방안을 마련해야 한다. 다만, 인공지능 개발·활용 과정에서 나타날 수 있는 다양한 위험을 사전에 완벽하게 제거하는 것은 불가능하므로, 인공지능 서비스 제공 과정에서도 개인식별 위험 등 정보주체 권익 침해 가능성을 지속 모니터링하도록 했다. 그밖에 기업 및 연구자가 가명처리 단계별(사전준비, 위험성 검토, 가명처리, 적정성 검토, 안전한 관리)로 고려해야 하는 사항을 안내하고 현재 개발 중인 가명처리 기술도 소개했다. 고학수 개인정보위 위원장은 “인공지능 등 많은 신기술 영역은 현장의 불확실성을 해소할 수 있는 세밀한 데이터 처리정책이 중요하다”면서, “금번 가이드라인을 시작으로 대규모 언어모형 등 생성형 AI와 관련한 '공개된 개인정보 처리 가이드라인'등 현장의 어려움을 해소할 수 있는 기준을 올해 중에 순차적으로 발표하겠다”고 밝혔다.

2024.02.04 14:58이한얼

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

오픈AI, 韓 미래 비전 밝힌다...'초거대 AI 서밋' 30일 개막

누리호 4호 왜 하필 자정에 쏠까..."이유는 KAI 때문"

AI 시대, 'HR의 현재와 미래' 바로 짚고 전망한다

바퀴 휴머노이드, 韓 제조현장 바꾼다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.