• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 개인정보'통합검색 결과 입니다. (38건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[유미's 픽] "설명 못 하는 AI는 리스크"…개인정보위 과징금 카드에 AI 업계 '긴장'

개인정보 침해 사고 이후 제재에 의존해 온 기존 조사 방식이 한계에 이르면서 위험 기반 접근과 개인정보 처리 전주기 관리 강화가 새로운 정책 기조로 부상했다. 인공지능(AI)·플랫폼 확산으로 대규모 데이터 활용이 일반화된 상황에서 앞으로는 AI 기업들이 기술 개발 초기 단계부터 개인정보 보호를 전제로 서비스 구조를 설계해야 할 것으로 보인다. 16일 개인정보보호위원회가 확정한 '2026년 개인정보 조사업무 추진 방향'에 따르면 정부는 앞으로 개인정보 침해 가능성이 높은 분야를 선별해 집중 점검하고, 조사·처분 전후 모니터링을 확대할 계획이다. AI와 클라우드 확산으로 최근 기업의 데이터 집중도가 높아진 점을 반영한 조치다. 이번 추진 방향에서 AI 산업이 직접적인 영향을 받는 부분은 신기술 분야에 대한 선별적 점검이다. 개인정보위는 AI 자동화 결정, 생체·영상정보 처리, 블록체인·분산신원인증(DID) 등을 위험성이 높은 영역으로 명시했다. 또 AI 채용 솔루션이나 금융·신용평가 서비스처럼 자동화된 결정을 수행하는 AI는 해당 여부와 함께 설명 의무 이행, 평가 기준의 투명성이 점검 대상이 된다. 단순한 성능 경쟁을 넘어 왜 그런 결과가 도출됐는지를 설명할 수 있어야 한다는 의미다. 얼굴·음성 인식, 영상 분석 등 생체·영상 데이터를 활용하는 AI 서비스는 고위험 분야로 분류돼 실태 점검이 강화된다. 기술 제공자라고 하더라도 개인정보 처리 책임에서 자유롭기 어렵다는 점에서 관련 기업들의 부담이 커질 것으로 보인다. 블록체인과 DID 분야 역시 점검 대상이다. 개인정보위는 분산원장의 특성으로 인해 발생할 수 있는 개인 식별 가능성 통제와 참여자 간 책임 구조를 들여다볼 계획이다. 조사 방식도 달라진다. 자료제출명령 미이행 시 이행강제금을 부과하고 조사 착수 단계에서 증거보전명령을 도입해 조사 강제력을 높인다. 특히 올해 12월 구축 예정인 기술분석센터는 AI 업계의 주요 변수로 꼽힌다. 기술분석센터는 AI 기반 서비스 전반에서 개인정보가 어떻게 처리·결합·이용되는지를 분석하는 역할을 맡는다. 이로 인해 그동안 알고리즘이 복잡하다는 이유로 설명을 피하던 대응 방식은 이제 더 이상 통하지 않을 것으로 보인다. 업계 관계자는 "이젠 AI 모델 구조와 데이터 흐름을 설명할 수 없는 상태 자체는 리스크가 될 것"이라고 말했다. 제재 수위도 크게 높아진다. 개인정보위는 매출액의 최대 10%에 달하는 징벌적 과징금 도입을 추진하고 반복 위반에 대한 가중 처벌과 감경 기준 강화를 예고했다. 이는 대규모 데이터를 다루는 AI 플랫폼 기업은 물론, 성장 단계의 AI 스타트업에도 재무적 부담이 될 것으로 예상된다. 업계에선 벌금 문제를 넘어 투자 유치나 인수합병(M&A) 과정에서 데이터 관리 체계가 핵심 검증 항목으로 떠오를 것으로 전망했다. 실제로 이번 추진 방향에는 기업 결합이나 파산·회생 과정에서 발생하는 개인정보 이전·파기의 적법성 점검도 포함됐다.이 같은 정책 기조 변화는 기업 내부 운영 방식에도 영향을 미칠 것으로 보인다. 대규모 개인정보 처리자는 해킹 대응 능력을 포함한 내부통제체계를 정기적으로 점검받게 되며 시정명령 이후 이행 여부에 대한 관리도 강화된다. 최고경영자(CEO)의 관리 책임이 강조되면서 개인정보보호책임자(CPO)의 역할 역시 커질 전망이다. AI 개발 조직과 보안·법무 조직 간 협업도 사실상 필수 요건으로 자리 잡을 가능성이 크다. 이번 조사 방향은 한국 AI 산업에 대해 빠른 기술 혁신보다 위험 관리와 책임을 우선하라는 신호로 읽힌다. 단기적으로는 규제 대응 부담이 커질 수 있지만, 중장기적으로는 개인정보 보호 역량을 갖춘 기업 중심으로 시장이 재편될 가능성도 있다. 업계 관계자는 "개인정보 보호 설계 수준이 향후 규제 대응 비용과 서비스 지속 가능성을 좌우하는 요소로 적용할 가능성이 크다"며 "앞으로 AI 경쟁력은 모델 성능뿐 아니라 개인정보 보호를 어떻게 설계했는지까지 포함하는 개념이 될 것"이라고 말했다.

2026.01.16 17:56장유미

[신년 인터뷰] "AI 역기능 막는 기술 확보가 국가 경쟁력 좌우"

"인공지능(AI)이 자율주행과 로봇, 에이전트 시스템으로 진화하면 우리가 지금까지 경험하지 못한 새로운 위험을 만들어낼 수 있습니다. 기술 개발뿐 아니라 안전성과 보안, 역기능 대응을 위한 투자가 반드시 병행돼야 하는 이유입니다. 안전과 통제를 처음부터 내재화한 AI 시스템을 설계하는 것이 국가 경쟁력 측면에서도 중요합니다." 성균관대 우사이먼성일 소프트웨어학과·인공지능대학원 교수는 지디넷코리아와 만나 AI 발전과 함께 커지고 있는 기술 안전성 문제를 이렇게 진단했다. 우 교수는 AI 기술 부작용을 최소화할 방법을 연구하는 학자다. 개인정보 침해와 허위 정보 생성, 저작권 문제, 범죄 악용 등 AI 확산으로 인해 나타나는 사회 위험을 기술적으로 통제하는 데 연구 초점을 맞추고 있다. 가장 대표 연구 분야는 머신 언러닝을 이용한 개인정보 보호 기술이다. 머신 언러닝은 AI 모델이 학습한 특정 데이터를 선택적으로 삭제할 수 있도록 하는 기술이다. 보통 모델이 학습 과정에서 방대한 정보를 내부에 저장하지만, 어떤 정보가 어떤 결과에 영향을 미쳤는지 알기 어렵다. 이에 개인이 자신의 개인정보를 삭제해 달라고 요구해도 기존 AI 모델에서는 이를 정확히 반영하기가 거의 불가능하다. 머신 언러닝은 이 문제를 해결하기 위한 기술이다. 최근 그는 이를 실제 개인정보 보호에 적용할 수 있도록 기술을 업그레이드했다. 기존 방식은 특정 데이터를 삭제하기 위해 해당 데이터를 제외한 나머지 데이터로 모델을 재학습해야 했다. 이는 초거대 AI 모델 환경에서 시간·비용 측면에서 사실상 불가능하다. 그는 "기존 언러닝 기법은 연구실에선 가능했지만 실제 서비스에 적용하기에 매우 비효율적"이라고 주장했다. 우 교수 연구팀은 이 문제를 해결하기 위해 새 접근법을 제시했다. 핵심은 원본 데이터를 보관하지 않아도 모델 성능과 삭제 정확도를 동시에 유지하는 방식이다. 이에 원본 데이터를 보관하거나 재학습을 별도로 진행하지 않아도 모델 성능을 유지할 수 있다. 그는 "원본 데이터 대신 통계적으로 유사한 합성 데이터를 생성·활용해 한계를 극복했다"고 강조했다. 그는 삭제 대상 데이터가 다른 데이터와 섞여 변형된 경우에도 제거 가능하다고 설명했다. 그는 "실제 데이터는 단독 존재하지 않고 여러 문장이나 문서, 다른 데이터와 연결돼 학습된다"며 "이를 그래프 구조로 표현하면 어떤 정보가 다른 정보에 어떻게 영향 미쳤는지 추적할 수 있다"고 말했다. 그러면서 "특정 이름이나 문장, 파생 정보까지 한 번에 제거할 수 있는 이유"라고 덧붙였다. 이 연구 성과는 지난해 12월 미국 샌디에고 컨벤션 센터에서 열린 국제 AI 분야 학회 NeurIPS(Neural Information Processing systems)에 발표됐다. 이 연구는 올해 과학기술정보통신부 재원과 정보통신기획평가원(IITP) 지원으로 추진 중이다. 연구 과제명은 '개인정보보호 관련 정책 변화를 유연하게 반영하여 준수하는 AI 플랫폼 연구 및 개발'이다. 우 교수는 해당 기술이 향후 기업과 정부 시스템에도 유용할 수 있을 것으로 봤다. 그는 "기업은 고객 개인정보나 저작권 있는 문서·이미지, 책 내용을 AI 모델에 학습시키기만 하면 된다"며 "삭제 요청이 들어오면 이를 기술적으로 반영하면 된다"고 설명했다. 그는 현재 여러 국내 기업과 협력해 챗봇이나 검색, 문서 분석, 법률 AI 등 서비스에 해당 기술을 적용하는 연구를 진행하고 있다. 그는 "개인정보나 저작권 삭제 요구가 많은 분야일수록 실무적 가치가 큰 기술"이라며 "언러닝 성능을 AI 안전성 평가 지표로 활용하는 방안도 고려 중"이라고 덧붙였다. 우 교수는 이달 시행될 국내 AI기본법과 연구 성과가 깊이 연결될 것으로 내다봤다. 그는 "그는 유럽 일반정보보호규정(GDPR)처럼 한국 AI기본법은 개인의 데이터 삭제 권리를 보장하는 것이 필수일 것"이라며 "우리 방식은 이런 법적 요구를 실제 AI 모델에 기술적으로 반영할 수 있는 현실적 해법"이라고 강조했다. "딥페이크도 '문맥'으로 잡아야"...기술력 전 세계 2위 기록 우 교수는 딥페이크 감지 기술 분야에서도 활발한 연구를 이어가고 있다. 특히 최신 생성형 AI가 만들어내는 새로운 형태의 딥페이크까지 탐지하는 기술 개발에 주력하고 있다. 그는 현재 다수 딥페이크 탐지 모델 성능이 최신 AI 기술을 따라가지 못하는 점을 꼬집었다. 모델 학습에 사용된 데이터와 실제 딥페이크 확산 형태가 다르다는 점을 근본 원인으로 짚었다. 그는 "최신 AI가 만드는 딥페이크는 기존 데이터와 특성이 전혀 다르다"며 "탐지 모델 성능이 실제 환경에서 급격히 떨어질 수밖에 없다"고 말했다. 우 교수 연구팀은 이런 문제를 해결하기 위해 새 방법론을 적용한 딥페이크 탐지 모델을 제시했다. 연구팀은 'DINO'와 'CLIP-ViT' 계열 모델로 이미지와 텍스처, 의미적 패턴을 폭넓게 이해할 수 있는 모델을 구축했다. DINO는 대규모 웹 데이터 기반으로 사전 학습된 모델이다. CLIP-ViT는 텍스트와 이미지 간 의미 관계를 학습한 모델이다. 연구팀은 이를 딥페이크 탐지에 맞게 재학습해 이미지 백본으로 활용했다. 이후 이 모델 위에 딥페이크 전용 어댑터 모듈도 추가했다. 이에 모델은 영상과 이미지에 포함된 미세한 위조 흔적까지 포착할 수 있다. 우 교수는 해당 모델이 단순 이미지 분류를 넘어서 의미론적 개념을 이해하도록 설계된 것을 핵심 기능으로 제시했다. 그는 "이 모델은 특정 유형 딥페이크에 과적합 되지 않는다"며 "여러 위조 콘텐츠를 안정적으로 탐지할 수 있다"고 설명했다. 해당 연구는 지난해 과기정통부 재원으로 IITP 지원을 받아 '디지털역기능대응기술개발'사업으로 수행됐다. 사업명은 '악의적 변조 콘텐츠 대응을 위한 딥페이크 탐지 고도화, 생성 억제, 유포 방지 플랫폼 개발'이다. 해당 모델로 성과도 얻었다. 지난해 국제 컴퓨터비전 학술대회(ICCV)가 주최한 딥페이크 탐지 'SAFE 챌린지'에서 이탈리아 나폴리대 연구팀에 이어 전 세계 2위를 기록했다. 또 지난해 성균관대와 한국정보과학학회가 공동 주최한 '성균관대x한국정보과학학회 딥페이크 경진대회'에서 대상과 우수상을 각각 수상했다. 우 교수는 향후 딥페이크 연구 방향도 제시했다. 그는 "실제 환경에 가까운 조건에서 모델을 연구·평가할 것"이라며 "특히 메신저와 소셜미디어(SNS) 환경처럼 저화질·압축 영상이 많은 환경서도 안정적으로 딥페이크를 탐지할 수 있는 모델을 구축할 것"이라고 덧붙였다.

2026.01.14 15:36김미정

챗GPT도 '카톡 챗GPT' 이용약관 우려...왜?

카카오(대표 정신아)가 오픈AI와 협업해 선보인 '챗GPT 포 카카오'의 이용자 보호 정책은 어떨까. 챗GPT조차 챗GPT 포 카카오의 이용약관에 대해 "모호한 표현에 따른 책임 소재 회피 가능성이 있다"며 우려를 표했다. 이에 카카오 측은 "(카카오톡 내 챗GPT는) 오픈AI가 제공하는 서비스이기 때문에 전 세계 사용자에게 동일한 이용약관이 적용된다"며 선을 그었다. 20일 IT업계에 따르면 카카오는 지난달 카톡 채팅 탭에서 챗GPT를 바로 사용할 수 있는 챗GPT 포 카카오를 공식 출시했다. 해당 서비스는 카톡을 하다가 모르는 점이 생기면 바로 챗GPT를 켜서 물어볼 수 있다는 것이 특징이다. 이를 통해 대화 맥락이 끊기지 않으며, 사용자의 요청에 따라 연동된 카카오 툴스를 이용해 카카오맵·카톡 예약하기·카톡 선물하기 등의 기능을 이용할 수 있다. 채팅을 통해 수많은 개인정보가 오가는 카톡에 챗GPT를 연결한다는 소식이 들리자 이용자들 중심으로 개인정보 침해 등 보안에 대한 우려 섞인 비판이 나오기도 했다. 그렇다면 챗GPT가 보는 챗GPT 포 카카오의 이용약관은 어떨까. 카카오톡 챗GPT 이용약관을 그대로 복사해 챗GPT 프롬프트 창에 붙여넣은 뒤, 이용자 입장에서 불리하거나 불합리한 조항을 찾아달라고 해봤다. 그러자 챗GPT는 구체적인 사안을 명시하지 않은 모호한 표현들이 자의적으로 사안을 판단하고, 책임 회피 가능성을 열어뒀다고 지적했다. 그 중에서도 '귀하와 오픈AI는 분쟁을 법원이 아닌 중재로 해결하며 집단소송을 제기할 수 없다'는 표현에 대해 사실상 법적 구제 수단이 제한된다고 봤다. 또 개인이 미국 본사를 상대로 단독 중재를 진행하는 것은 비용과 절차상 매우 불리하다고 판단했다. 이용자가 피해를 입더라도 집단소송을 제기할 권리를 포기해야 한다고 지적했는데, 이는 지난해 문제로 불거진 디즈니의 약관과 유사하다. 당시 디즈니는 미국 디즈니월드에서 음식을 먹다 사망한 여성의 유족이 소송을 제기하자 온라인동영상플랫폼 '디즈니 플러스' 가입 약관을 근거로 공개 재판을 막으려고 시도했다. 이 때 디즈니가 근거로 내세운 조항은 '분쟁 발생 시 집단소송 포기가 적용되며 개별 중재로 해결돼야 한다'는 문구였다. 이와 관련해 이주한 법무법인 위민 변호사는 “약관 무효에 관한 법률에 따르면 소비자에게 일방적으로 불리하게 작성된 약관은 무효로 볼 수 있다”며 “집단소송 등은 소비자의 권리인데 이를 이용약관으로 제한한다는 것 자체가 해당 약관의 무효 여부를 다퉈볼 수 있다. 약관의 무효 청구 소송을 한 번 해볼 수 있지 않을까라는 생각이 든다”고 설명했다. 이어 “(챗GPT 포 카카오의 이용약관이 챗GPT의 약관을 그대로 가져왔다고 하더라도 약관 무효를 다투고 책임소재를 묻는데는) 전혀 문제가 안된다”며 “오히려 (약관을 그대로 가져왔다면) 저작권 문제로 회사(오픈AI)에서 이를 문제 삼을 수도 있다”고 덧붙였다. '당사의 책임 한도는 귀하가 지난 12개월간 지급한 금액 또는 100달러(14만6천원) 중 큰 금액으로 제한된다'는 문구도 문제라고 언급했다. AI 오작동이나 보안사고로 큰 피해가 발생해도 배상금 상한이 100달러일 뿐만 아니라 무료 사용자는 사실상 보상받을 방법이 없다는 것이다. 이외에도 '당사는 본 서비스의 제공, 유지보수, 개발 및 개선을 위하고 관련 법률을 준수하고자 당사의 약관과 정책을 집행하기 위해, 그리고 본 서비스의 안전을 기하기 위해 귀하의 콘텐츠를 이용할 수 있다'는 점에 대해서도 우려했다. 챗GPT는 이용약관에 명시적으로 '모델 학습에 쓰지 않는다'고 표현하지 않고, '거부 절차'를 별도 링크로 분리해뒀다고 꼬집었다. 이로 인해 이용자가 자동으로 동의한 것으로 간주되며 거부하려면 사용자가 직접 복잡한 절차를 찾아야 한다고 챗GPT는 설명했다. 실제로 '챗GPT 포 카카오'에 적용되는 오픈AI의 언어모델에 개인정보를 학습하지 않도록 하려면 연동된 챗GPT 계정에 로그인하는 과정을 거쳐야 한다. 챗GPT 계정으로 로그인 하지 않았다면 '챗GPT 포 카카오'의 오른쪽 상단 메뉴에 표기된 설정, 모델 개선에 참여한 뒤 기능을 꺼야 한다. 이밖에도 '챗GPT 포 카카오' 채팅창에 '옵트 아웃'이라는 채팅을 남기면 개인정보 수집을 멈출 수 있다. 카카오 관계자는 “챗GPT는 오픈AI가 제공하는 서비스로 (해당 서비스에)명시된 약관이 적용되고 이는 전 세계 사용자에게 동일하다”며 “챗GPT 포 카카오는 오픈AI와 카카오의 전략적 협업에 따른 서비스로 이용자 보호을 위한 방안에 대해 양사가 면밀히 검토하며 협업할 계획”이라고 말했다.

2025.11.20 16:24박서린

[기고] 알고리즘과 개인정보 처리

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 오늘날 '알고리즘(Algorithm)'이라는 용어는 인공지능(AI)과 함께 매우 빈번하게 사용된다. 이 용어는 새롭게 만들어진 말이 아니라 9세기 페르시아 수학자 '알-콰리즈미(Al-Khwarizmi)'의 라틴어식 이름인 알고리스무스(Algorismus)에서 유래한 것으로, 본래 '문제를 해결하는 절차와 방법'을 의미했다. 이처럼 오래된 개념이 오늘날 AI 영역에서 뜨거운 법적 쟁점이 되고 있다. 전통적인 알고리즘은 사람이 모든 규칙을 직접 만들고 입력했지만 현대의 AI 알고리즘은 스스로 학습을 통해 규칙을 만들어 내기 때문이다. 그런데 이 학습의 재료는 방대한 양의 데이터다. 이 데이터에는 개인의 신상, 취향, 생체 정보와 같은 개인정보도 포함된다. 개인정보를 학습해 고도화된 예측 모델인 AI 알고리즘이 그 자체로 개인정보를 처리한 결과물로 봐야 하는지는 어렵지만 답해야 하는 문제다. AI 모델 자체는 개인정보 처리에 해당하지 않는다는 측은 학습의 '과정'과 '결과물'을 구분한다. AI를 트레이닝하는 단계에서는 개인정보의 수집과 분석이 이뤄지므로 개인정보 처리에 해당하지만 학습이 끝나 하나의 모델이 완성되면 그 모델, 즉 알고리즘은 원본 개인정보와 분리된 수학적·통계적 규칙의 집합에 불과하다. 이에 따라 모델을 활용하는 행위는 개인정보 처리가 아니라는 논리다. 반대로 학습이 완료된 AI 모델도 개인정보 처리의 연장선에 있거나 그 자체로 개인정보의 성격을 가진다고 보는 입장도 있다. 이 견해에 따르면 AI 모델은 단순히 원본 데이터를 요약한 것이 아니라 그 안에 데이터의 본질적 패턴과 특성을 내재하고 있다. 이에 따라 AI가 특정 개인을 식별하거나 민감한 정보를 추론할 수 있다면 이는 심각한 문제이므로 별도의 보호가 필요하다는 주장으로 이어진다. 미국의 경쟁당국인 연방거래위원회(FTC)는 과거 안면인식 AI기업인 파라비전 사가 사용자 동의 없이 수집한 개인정보로 AI 모델을 개발한 행위에 대해 원본 데이터를 파기할 뿐만 아니라 그 데이터로 학습한 알고리즘까지 삭제(disgorgement)하라는 명령을 내린 바 있다. 이같은 사례는 여러 건이 확인된다. 이러한 규제 당국의 입장은 AI 모델을 불법 수집된 정보의 파생물로 본다는 점에서 의미가 있다. 개인정보를 위법하게 수집했다면 그 데이터를 이용해 개발한 알고리즘으로 이익을 얻는 것 역시 허용되지 않는다는 것이다. 이는 알고리즘이 원재료인 개인정보와 동일한 수준으로 취급될 수 있음을 보여주는 사례다. 국내에서도 AI 개발 과정을 개인정보 처리로 본 사례가 있다. 지난 2022년 법무부가 1억7천만 건의 출입국 심사 정보를 민간 기업에 제공해 AI 식별 시스템을 개발하게 한 사안에서 개인정보보호위원회는 해당 AI 개발을 개인정보 처리를 위탁한 것으로 간주했다. 다만 이 사안에서는 당초 수집 목적 범위 내의 적법한 이용으로 인정됐기에 알고리즘 삭제까지 이어지진 않았다. AI 학습과 그 결과물인 모델을 '개인정보 처리'의 영역으로 볼 경우 그 파급력은 막대하다. 정보주체가 개인정보보호법상 '삭제 요구권'을 행사하며 "내 정보가 학습된 모델을 삭제해달라"고 요구할 수 있게 되기 때문이다. 개인정보로 만들어진 알고리즘을 법적으로 어떻게 바라볼 것인지, 정보주체를 보호하면서도 기업의 기술발전 진흥을 위해서는 어떠한 규제를 만들어 나가야 할지에 대한 사회적, 법적 논의가 필요한 시점이다.

2025.10.24 11:46이강혜 법무법인 태평양

구직자 정보 보호하고 이력 공정 평가…"실제 적용 가능한 모델 구현"

"저희 아이디어가 블록체인과 인공지능(AI) 기술의 실용적인 융합 가능성을 인정받았다는 점에서 큰 의미가 있다고 생각한다" IT 보안·인증 플랫폼 기업 라온시큐어(대표 이순형, 이정아)와 글로벌디지털혁신네트워크(GDIN)가 공동 주관하고 한국디지털인증협회가 주최해 올해 처음 코엑스에서 지난달 25일 열린 '2025 블록체인&AI 해커톤'에서 최우수상(한국조폐공사 사장상)을 수상한 '지케이블록(zkBlock)' 팀은 이같은 소감을 남겼다. 지케이블록 팀은 대회에서 '지케이매치(zkMatch)'라는 영지식증명 및 블록체인 기술 기반의 구인·구직 매칭 서비스를 구현하는 프로젝트에서 성과를 인정받아 최우수상을 수상하게 됐다. 지케이블록 팀은 "저희 팀은 현직 영지식증명 분야 및 블록체인 업계 전문가 3인과 DID, AI, 블록체인 개발에 깊은 이해와 높은 개발 능력을 가진 대학생 개발자 2인으로 구성돼 있다"며 "복잡한 영지식증명 프로토콜을 구현하고 DID와 블록체인, AI 모델과 연동하는 과정에서, 각자의 기술적 강점을 바탕으로 서로의 아이디어를 보완하며 시너지를 창출하는 데 주력했다"고 밝혔다. 또한 "특히 DID와 영지식증명 기술을 구인구직 시장에 적용해 채용의 투명성과 개인정보 보호라는 두 마리 토끼를 잡고자 한 노력이 좋은 평가를 받은 것에 감사드린다"며 "이번 수상을 단순한 성과가 아닌 지케이매치를 실제 서비스로 발전시켜 고용 시장에서도 새로운 변화를 가져올 수 있는 동력으로 삼겠다"고 포부를 남겼다. 지케이블록 팀은 구인구직 시장에서 이력서 위조, 개인정보 유출 위험 등 만연한 문제에 대해 파악하고, 개인정보를 파기하는 데 있어 항상 업무에 추가적인 시간과 노력이 필요했다는 점에서 불만족스러운 점을 포착했다. 이에 대회를 준비하게 됐으며, 단순 아이디어가 아닌, 실제로 작동 가능한 'MVP(최소 실행 가능 제품) 모델'을 시현하겠다는 목표로 프로젝트를 수행했다. 모바일 신분증을 활용해 구직자의 신원을 안전하게 인증하고, 위·변조가 불가능한 검증된 이력 정보만을 활용해 공정하게 평가하고, AI를 이용해 효율적으로 채용을 공고할 수 있는 채용 프로세스를 제공하는 것이 핵심이다. 구체적으로 ▲DID 기반의 이력 검증 기술 ▲영지식증명을 통한 '데이터 프라이버시 극대화' ▲검증된 데이터 기반의 'AI 맞춤형 고도화 매칭' 등 차별적인 기술력이 수상에 보탬이 된 것으로 전해졌다. 프로젝트 수행 과정이 순탄하지만은 않았다. 구직자의 민감한 개인정보를 기업에 공개하지 않으면서도, 기업이 설정한 조건에 충족하는지 여부만 수학적으로 증명하는 복잡한 로직을 구현해야 했기 때문이다. 중간에 영지식증명 기술을 포기하는 방향을 바꾸기도 했으며, 개발 방향에 따라 사업계획도 계속 수정하는 등 노력이 계속해서 수반됐다. 밤샘 작업과 수많은 시행착오 끝에 프로젝트를 완성할 수 있었다는 것이다. 최종 시연에서 지케이블록 팀은 결국 기술적 한계를 극복하고 영지식증명 로직이 성공적으로 작동해 실시간으로 신뢰 가능한 매칭을 이뤄냈다. 지케이블록 팀은 해당 서비스가 우리 사회 및 산업 전반에 걸쳐 '신뢰 회복'과 '효율성 증대'라는 두 가지 핵심적인 효과를 가져올 것으로 예상하고 있다. 팀은 "기업은 이력서 검증에 소요되는 시간, 비용, 인력을 획기적으로 절감할 수 있으며, 이력 위조로 인한 잠재적인 리스크를 완전히 제거할 수 있다"며 "인재 검증에 어려움을 겪는 중소·중견기업의 채용 경쟁력을 강화하는 데 큰 도움이 될 것"이라고 설명했다. 아울러 "구직자는 자신의 민감한 개인 정보를 완벽히 보호받으면서도, 공신력 있는 '검증된 이력'을 바탕으로 오직 역량만으로 평가받는 공정한 환경을 누리게 됐다"며 "지케이매치는 불공정한 채용 관행을 해소하고, 데이터 주권이 개인에게 귀속되는 건강한 웹3 기반 채용 문화 정책에 크게 기여할 것"이라고 밝혔다. 올해 안으로 지케이블록 팀은 MVP 모델을 고도화해 정식 상용 버전을 개발할 계획이다. 또한 인재 유치 및 서비스 오픈에 집중하고 이를 위해 5억~10억 원 규모의 초기 투자를 유치하겠다는 청사진을 제시했다. 향후에도 "2년차에는 중소 서치펌 인수 및 전략적 파트너십을 통해 인재풀과 비즈니스 네트워크를 확보하고, 영지식증명 기술을 더욱 고도화하여 사용자 기반을 대규모로 확보할 계획"이라며 "3년차에는 글로벌 인재 매칭 서비스로 확장해 해외 시장에 진출하고, 이후 IPO를 준비하는 것을 목표로 하고 있다"고 밝혔다. 한편 지케이블록 팀은 이번 대회 상금으로 600만원을 받았다.

2025.10.14 21:32김기찬

"홀로그램으로 엘리베이터 버튼을 만든다고?"

“어? 저 홀로그램을 누르면 기기가 작동합니까?” 지난달 30일부터 사흘 일정으로 서울 삼성동 코엑스에서 열리고 있는 'AI WeeK 2025-AI Festa' 한국전자통신연구원(ETRI) 부스를 둘러보던 한 관람객이 “어떻게 허공에 떠 있는 이미지로 스위치를 구현하는지 궁금하다”며 던진 질문이다. 이 기술은 ETRI 지역IC융햡본부가 '내부연구개발사업 창업일체 R&D사업'으로 개발한 '비접촉 센서기반 눈에 보이는 공간홀로그램 구현모듈 상용화 기술이다. 다양한 비접촉 센서를 기반으로 공간홀로그램 인터페이스를 구현해 눈에 보이는 3D 홀로그램을 통한 직관적 조작환경을 제공한다. 물리적으로 접촉하지 않아도 되기 때문에 코로나19 이후 요구된 비접촉·위생친화적 인터페이스가 가능하다. 더욱이 모듈화 기술로 기존 시스템에 손쉽게 통합할 수 있다. 이 기술은 병원·수술실·감영병 연구소 등 스마트 헬스케어 분야와 엘리베이터·무인 키오스크 등 스마트빌딩·공공시설 등에 다양하게 활용할 수 있다. 또 ETRI가 개발한 기술을 이전하기 전에 기업 등 수요자가 실제로 체험할 수 있는 'ETRI 기술체험 플랫폼'인 'epretx'도 선보였다. 이 서비스는 클라우드 기반 가상화 환경에서 복잡한 준비 과정 없이 다양한 신기술을 체험할 수 있고 개발자는 기술을 쉽게 배포하고 피드백을 얻을 수 있는 선순환 기술체험 플랫폼이다. 'ETRI 기술체험 플랫폼'에 올리지 않았찌만 본원에서 개발한 기술도 선보였다. CCTV 등에 촬영된 얼굴을 변형해 다른 얼굴로 저장하는 기술이다. 얼굴을 블라인드 처리하거나 표정 등을 없애지 않으면서 얼굴만 바꾸기 때문에 개인정보를 침해할 우려가 없다. ETRI 관계자는 “이렇게 처리하면 CCTV로 수집하는 데이터 기록을 유지하고 나중에 필요한 학습에 초상권 침해 없이 활용할 수 있다”고 설명했다.

2025.10.02 16:38주문정

"개보위, AI 시대 개인정보 활용 방안 강구"

"인공지능(AI) 시대가 되면서 개인정보를 무조건 보호만 해서는 이제 안 되고, 안전하게 활용하는 방안에 대해 연구해야 한다" 개인정보보호위원회(개보위) 고낙준 신기술개인정보과장은 30일 서울 코엑스에서 개최된 과학기술정보통신부 공식 AI주간 'AI페스타 2025' 부대 행사로 개최된 '대한민국 사이버 보안 컨퍼런스'에서 이같이 밝혔다. 이날 고 과장은 'AI시대 안전한 개인정보 활용을 위한 원칙기반의 규율 체계'에 대해 발표했다. 고 과장은 "현재 우리 법 체계는 과거 아날로그 시대에서 보면 동의를 받고 하라는 법적 근거를 마련하도록 요구하고 있다"면서도 "반면 AI 시대에는 동의나 법령에 따라서 할 수 없기 때문에 여러 가지 갈등이나 긴장 상황이 생긴다"고 진단했다. 고 과장은 개보위가 개인정보 활용을 위해 진행한 여러 입법 활동 등 정책적 지원 내용에 대해 소개했다. 대표적인 예가 자율주행차, 배달·순찰로봇, 드론, 바디캠 등 이동형 영상기기에 탑재되는 카메라에 사람이 촬영됐을 때 이 영상정보도 개인정보로 분류되는 만큼 이를 어떻게 활용할 지에 대한 것이다. 개보위는 이같은 이동형 영상촬영기기가 국민 생활 및 산업 전반에 확산하는 추세이고, AI 등 신기술과 결합해 사람의 개입 없이 스스로 정보를 수집·판단·제어하는 새로운 영역으로 발전했다고 봤다. 이에 사전 동의가 곤란한 영상정보 특성을 고려해 이동형 영상기기의 촬영에 대한 법적 근거를 2023년 9월 마련한 바 있다. 구체적으로 공개된 장소에서 업무 목적 촬영을 허용한 것이다. 다만 촬영사실을 불빛 등의 표시를 통해 알려야 하고, 부당한 권리 침해는 금지하는 등 요건 준수도 필요하다. 특정 목적을 위해 원본데이터의 형식과 구조 및 통계적 분포 특성과 패턴을 학습해 생성한 가상 데이터를 의미하는 합성데이터의 경우도 ▲안전기준 설정 ▲원본데이터 전처리 ▲안전성 검증 ▲안전한 관리 등 권장사항을 준수할 것으로 활용 방안을 제시했다. AI, 클라우드와 같은 인터넷 기반 기술이 급격히 발전하고 있는 데 반해 개인정보처리시스템에서 개인정보를 다운로드·파기할 수 있거나, 접근 권한을 설정할 수 있는 개인정보취급자의 컴퓨터 등에 대해 인터넷망을 차단하는 '인터넷망 차단조치'로 인해 일률적으로 차단되는 것에 대한 개선이 필요하다는 의견도 반영했다. 구체적으로 개보위는 개인정보처리자가 마련한 내부 관리 계획에 따른 위험 분석을 통해 인터넷망 차단, 차단 제외, 상응 보호조치 적용 대상 컴퓨터 등을 스스로 결정할 수 있도록 관련 정책을 개정할 예정이다. 고 과장은 "회사 사정에 맞춰 인터넷망 차단조치를 유지하거나 예외 조항을 판단해 적용할 수 있도록 다양한 방식으로 개정안을 마련하고 있다"며 "아직 통과는 되지 않았고 행정 절차 중"이라고 밝혔다. 그는 이어 "행정예고도 진행되고 있는 만큼 최종적으로 확정이 되면 발표할 것"이라며 "그래서 조금 더 원활하게 업무 효율성을 올릴 수 있도록 하는 방안을 개보위는 계속해서 강구하고 있다"고 강조했다.

2025.09.30 20:59김기찬

개보위 김직동 과장 "AI 학습 위한 데이터 활용...유연한 법제 정비 필요"

“AI가 블랙박스처럼 작동하면서 개발자조차 처리 과정을 완전히 파악하기 어려워진 만큼 개인정보 유출 위험도 더욱 다양해지고 있다” 개인정보보호위원회 김직동 개인정보정책과장은 30일 서울 코엑스에서 열린 'AI페스타 2025'의 부대행사로 열린 '대한민국 사이버보안 컨퍼런스'에 강연자로 나서 이와 같이 말했다. 김직동 과장은 '2025년 개인정보 정책 방향'을 주제로 발표하며 AI 전환기에 맞춘 개인정보보호법의 유연한 적용과 새로운 안전장치 마련이 필요하다고 강조했다. 그는 “AI 시대의 데이터 활용은 이제 정형 데이터를 넘어 비정형 영상·음성 등 복합적 형태로 확장됐다”며 “GPU나 인력만큼 중요한 것이 고품질 데이터지만, 공개 데이터는 이미 학습이 완료된 상태로 새로운 학습에 한계가 있다”고 말했다. 이어서 “공공기관에 양질의 데이터가 쌓여 있음에도, 법적 리스크와 인센티브 부재로 활용이 매우 소극적”이라고 덧붙였다. 김직동 과장에 따르면 공공기관의 감명정보 제공 경험은 3% 수준에 그치고 있다. 이에 개인정보보호위원회는 법적 불안을 해소할 수 있는 유연한 법 적용과 제도 개선을 추진 중이다. 김 과장은 개인정보 유출 사고에 대한 제재 강화 방침도 밝혔다. 그는 “SKT 사건에서 과징금 1천347억 원을 부과했지만 피해 회복은 여전히 미흡하다”며 “대규모 사고를 숨기지 못하도록 신속 조사체계와 포렌식랩 구축을 진행 중”이라고 전했다. 이어 “공공기관에서 발생한 유출 사고는 무조건 전면 공표하고, 재점검을 의무화할 것”이라며 “과징금 일부를 피해 구제나 재발방지 기금으로 활용하는 방안도 검토 중”이라고 설명했다. 김직동 과장은 최근 새롭게 문제로 떠오른 AI 사칭 광고, 딥페이크도 언급했다. 김 과장은 “최근 AI가 유명인 이미지를 무단 활용한 사칭 광고가 늘고 있다”며 “원치 않는 정보 노출로 인한 피해를 막기 위해 '인격권 침해 배제 요건'을 신설하고, 삭제 요구에 응하지 않을 경우 제재할 예정이다”고 밝혔다. 또한 “악의적 딥페이크 제작·유포자는 형사처벌 대상이 될 수 있다”며 강경한 대응 의지를 드러냈다. 김 과장은 제품 단계에서 개인정보 보호를 내재화하는 'PbD(Privacy by Design)' 정책도 소개했다. 그는 “이제는 카메라, 로봇청소기 등 IoT 기기 설계 단계에서부터 개인정보 보호 기준을 반영해야 한다”며 “삼성전자 로봇청소기, IP카메라 등 시범 인증을 통해 안전한 제품임을 보증하는 보호 마크 부여 제도를 운영 중”이라고 설명했다. 특히 김 과장은 AI 개발 현장에서 제기된 '원본 데이터 활용' 문제에 대해 “현재 가명처리 의무가 데이터 가치 저하로 이어진다”며 “의료·범죄예방 등 공익 목적의 경우, 안전조치를 전제로 원본을 사용할 수 있는 특례 조항을 신설할 계획”이라고 밝혔다. 그는 “관련 법안이 이미 발의돼 있으며, 올해 국정과제로 추진 중”이라며 “AI 학습 데이터 확보를 위한 합법적 활용 근거를 마련하겠다”고 말했다. 아울러 “AI·데이터 시대에 맞는 전문 인력을 확보하기 위해 개인정보보호 석·박사 과정을 내년부터 2~3개 대학원에 지원할 계획”이라며 “기술과 법이 융합된 인재를 육성해 R&D와 정책 설계에 투입할 것”이라고 강조했다. 김 과장은 발표를 마치며 “AI 시대 개인정보 정책의 핵심은 활용과 보호의 균형”이라며 “법적 불확실성을 줄이고 안전한 데이터 생태계를 만들어야 AI 혁신이 가능하다”고 강조했다. 이어서 “AI 전략위원회 확대, 샌드박스·사전적정성 검토 등 다양한 제도를 통해 산업과 국민 모두 안심할 수 있는 환경을 만들겠다”고 밝혔다. AI페스타 2025는 AI, 보안, 윤리, 데이터 혁신을 주제로 정부·산업계·학계 전문가들이 참여한 국내 최대 규모 AI 행사다. '대한민국 사이버보안 컨퍼런스' 세션에서는 과학기술정보통신부, 개인정보보호위원회, 기업 관계자들이 연사로 나서 AI 전환기 개인정보보호 및 보안 대응 전략을 논의했다.

2025.09.30 14:57김한준

개인정보 유출 논란 잊었나...정부 건강정보 제공 논의에 시민단체 반발

정부가 국민건강보험공단이 보유한 건강정보 제공을 확대키로 하면서 반발이 일고 있다. 제8차 바이오헬스혁신위원회는 30일 오전 정부서울청사에서 '건강보험 빅데이터 활용 확대 방안'에 대해 논의하고, 의료 AI 연구·산업에 필요한 데이터 신청-제공-활용 단계별 애로사항과 대응 방안을 결정했다. 혁신위는 앞으로 이용자 맞춤형 데이터 신청 지원을 온‧오프라인 교육을 확대하는 한편, 개인정보 보호를 바탕으로 데이터 제공 방식을 다변화한다는 방침이다. 이를 위해 데이터 구축에 걸리는 기간을 기존 5개월에서 1개월 이내로 단축할 예정이다. 또 개인정보 보호 조치를 강화한 저위험 가명 데이터 개발, 개인정보 재식별 우려 없이 AI 분석‧학습 등에 용이한 합성데이터 개발도 추진할 방침이다. 혁신위는 AI 학습 등에 용이한 데이터 분석 환경도 구축하기로 했다. 관련해 빅데이터 분석센터 확충 및 AI 모델 개발 등 이용자가 많은 분석센터는 개방 시간 및 시스템 이용 시간을 확대할 예정이다. 하지만 이러한 움직임에 대해 최근 잇달아 발생한 개인정보 유출 등 국민 우려를 고려하지 않는 조치라는 비판도 제기된다. 보건의료노조와 무상의료운동본부는 혁신위 논의에 대해 “건보공단은 국민의 ▲신상 ▲질병 ▲처방 ▲검진 ▲재산 ▲소득 등 개인에 대한 거의 모든 정보를 축적하고 있다”라며 “윤석열에 이어 이재명 정부도 건강보험 정보를 기업에 넘기려 한다”라고 주장했다. 이어 “가명 처리하면 개인 식별할 수 없다는 말도 믿어서는 안 되며, 다른 정보와 결합하면 언제든 개인이 드러날 수 있는 것이 가명정보”라고 비판했다. 아울러 “가장 민감한 의료정보는 유출이나 악용이 개인에게 돌이킬 수 없는 피해를 남기게 된다”라며 “바이오헬스혁신위원회가 우리의 건강보험 빅데이터에 대해 이러쿵저러쿵하게 두어서는 안 된다”라고 덧붙였다.

2025.09.30 13:12김양균

"프라이버시 필터 오픈소스 공개"...오픈AI 권 CSO 깜짝 발표

"인공지능(AI)은 개인 정보를 침해할 수도 있지만, 동시에 우리를 더 안전하게 지키고 프라이버시를 강화할 수도 있다. 오픈AI의 '프라이버시 필터'가 그 가능성을 보여주는 사례다." 한국계 미국인 제이슨 권 오픈AI 최고전략책임자(CSO)는 17일 서울 하얏트호텔에서 열린 제 47차 GPA(Global Privacy Assembly) 총회 이틀째 공식 행사에서 기조 연설을 하며 이같이 밝혔다. 그는 "프라이버시 필터는 AI 학습 과정, 프런티어 모델 훈련에서 개인정보 처리를 줄이기 위해 오픈AI가 내부적으로 사용하는 AI 도구이며, 개인정보 축소 처리 측면에서 현재 상용화된 어떤 기술보다도 높은 성능을 내고 있다"며 "이 자리에서 프라이버시 필터를 오픈 소스로 공개하겠다"며 깜짝 발표했다. 이어 "내년부터 전 세계 개발자 커뮤니티가 프라이버시 필터를 활용해 프라이버시 보호의 기준을 끌어올릴 수 있도록 할 것"이라며 "최근 출시한 오픈AI모델과 비영리 파트너 Roost와의 협력을 통해 프라이버시 필터를 더욱 강화해 나갈 것"이라고 밝혔다. Roost는 소규모 조직이나 시민사회 단체도 책임 있는 AI를 배포할 수 있도록 오픈소스 기반의 안전 인프라를 구축하고 있는 기관으로, 오픈AI와 협력하고 있다. 오픈AI는 Roost의 공동 설집자이자 주요 책임자로 참여 중이다. 아울러 제이슨 권 CSO는 오픈AI가 개인정보 보호에 기울이고 있는 노력 및 기술에 대해서도 소개했다. 오픈 AI는 사용자 누구든 '임시 대화 기능'을 도입해 대화가 저장되지 않은 상태에서 AI와 상호작용할 수 있도록 하고 있는 점 등이 여기에 해당된다. 그는 "오픈AI는 부모와 보호자에게 의미 있는 선택권을 주는 기능도 개발 중"이라며 "예컨대 청소년 사용자가 어떤 사람과 접촉할 수 있는지, 어떤 활동을 할 수 있는지 부모가 관리할 수 있도록 하고 모델이 사용자의 스트레스나 위험 징후를 감지하면 보호자에게 알림을 보내 개입할 수 있도록 하는 방식"이라고 설명했다. 또한 "오픈AI는 사용자 통제권을 최우선으로 하고, 데이터 보호와 보안을 기본부터 내재화환 설계를 지향하고 있다"며 "샘 올트먼 오픈AI CEO(최고경영자)도 강조했듯 AI와 사용자는 점점 더 개인적이고 중요한 대화를 나누고 있지만, 정작 기존의 법적 보호 체계는 이러한 AI 대화에 맞게 설계되지 않았다"고 지적했다. 그는 "따라서 AI와의 대화가 소송, 소환장, 정부의 광범위한 요구로부터 쉽게 노출되지 않도록 법과 표준을 업데이트할 필요가 있다"며 "AI 대화도 '프라이버시 특권'으로 보호할 수 있도록 새로운 접근이 필요하다" 그는 "저는 프라이버시를 단순한 기술적 문제나 규제 준수 문제로 보지 않는다. 개인정보는 인간 존엄, 자율성, 개인과 사회의 진보를 위한 권리의 문제"라며 "AI 시스템은 점점 더 주도적으로 행동하며, 여러 과제를 넘나들고 추론하며 인간을 대신해 행동할 수 있는 '에이전트'로 발전하고 있다. 오픈AI는 이러한 에이전트가 인간의 능력을 보완하고 개인이 더 많은 시간과 자유를 확보할 수 있도록 만들 것"이라고 다짐했다.

2025.09.17 16:33김기찬

[기고] 의도하지 않은 AI의 민감정보 처리

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)은 이제 모두의 일상에 자연스럽게 자리하고 있다. 궁금한 것이 생겼을 때 AI에게 물어보거나 상담하고 자료를 분석하거나 정리하는 도구로도 활용한다. 마치 운전자가 내비게이션을 켜는 것처럼 AI는 필요할 때 자연스럽게 손이 가는 생활의 기본 도구가 됐다. 그러다 보니 AI에 입력되는 질문, 명령어, 자료 등에는 입력하는 사람에 관한 다양한 정보가 포함된다. 여기에는 그 사람을 식별하고 특정할 수 있는 개인정보는 물론 그 중에서도 그 사람의 사생활에 밀접하게 관련된 '민감정보'가 포함될 수 있다. 개인정보 보호법상 민감정보는 사상이나 신념, 노동조합이나 정당의 가입이나 탈퇴, 정치적 견해, 건강, 성생활 등에 관한 정보, 유전정보, 범죄경력자료, 생체정보(특정 개인을 알아보기 위해 활용되는 사람의 지문, 얼굴, 홍채, 정맥 등), 인종이나 민족에 관한 정보를 의미한다. 이러한 민감정보는 개인정보 중에서도 정보주체의 사생활을 현저히 침해할 우려가 있다. 이 때문에 개인정보 보호법은 민감정보의 수집 및 이용을 원칙적으로 금지한다. 예외적으로 정보주체의 별도 동의를 받거나 법령에서 민감정보 처리를 허용하는 경우에 한해서만 그 수집과 이용을 허용하고 있다. 이에 따라 AI 서비스를 통해 민감정보가 포함된 정보를 수집하는 것이 예상된다면 미리 이용자로부터 민감정보 처리에 관한 별도 동의를 받아야 할 것이다. 물론 일부 법에 근거해 민감정보 처리가 가능할 수도 있다. 병원 등 의료기관이나 장애인 지원 서비스 관련 AI 상담 챗봇이나 인사 AI 시스템일 경우가 그러한 경우다. 경우에 따라서는 서비스 제공자는 물론 이용자도 AI를 통해 민감정보가 입력될 것을 의도하거나 예상하지 못함에도 정보가 입력되는 경우가 존재한다. 상품 배송 고객센터 상담 챗봇에 고객이 특정 질환이나 병명을 언급하는 경우나 번역이나 문서 요약 등을 위해 업로드한 자료에 각종 민감정보가 포함되어 있을 수도 있다. 앞서 언급한 것처럼 민감정보는 별도 동의나 법령상 근거로만 수집이 가능하다. 통상적으로 민감정보 수집이 예정되지도 않고 어떤 민감정보가 수집될지도 알 수 없는 상황에서 미리 포괄적으로 민감정보 수집 및 이용 동의를 받는 것은 지나치게 포괄적인 동의다. 이 때문에 적법하다고 보기 어렵고 이러한 경우라면 민감정보 수집을 허용하는 법령상 근거도 당연히 없을 것이다. 아직까지는 이러한 문제가 본격적으로 대두되지는 않았다. 민감정보는 대체로 관련 서비스 제공 과정에서 그 수집 및 이용이 수반되거나 예정되는 경우가 많고 사전에 해당 민감정보 처리의 동의를 받으면 되기 때문이다. 그럼에도 의도되지 않은 AI의 민감정보 수집과 이용은 분명 존재하고 특히 민감정보가 포함된 자료 업로드는 예기치 못한 사회적 이슈를 초래할 수도 있다. 일례로 이용자가 번역이나 문서 요약 등을 위해 AI에 올린 자료 안에 본인이나 심지어 제3자의 의료기록, 범죄경력자료, 노동조합 활동이력 등이 포함될 수 있다. 이는 해당 정보주체의 개인정보, 그것도 민감정보의 자기결정권을 중대하게 침해할 수 있다. 이 문제와 관련해서는 1차적으로 AI 서비스 제공자가 AI 서비스상에서 민감정보의 처리가 이뤄지지 않도록 조치하는 방법이 있다. 다만 다양한 한계로 인해 AI 서비스 제공자가 입력된 민감정보를 완전히 적법하게 처리하기는 거의 불가능에 가깝다. 이용자로 하여금 민감정보를 완전히 비식별화한 후에만 자료나 정보를 업로드하도록 강제할 수단은 사실상 없다. 그런 서비스를 이용할 이용자는 거의 없을 것이기 때문이다. 더불어 서비스 제공자가 업로드된 자료나 정보(민감정보 포함)를 수집하고 그 자료나 정보에서 민감정보를 인식, 분류해서 삭제하는 것 자체도 결국 민감정보의 '처리'에 해당된다. 규제기관 차원에서 위와 같은 사정이 적극 고려될 필요가 있다. 민감정보 처리가 의도되지 않는 수많은 AI 서비스가 법령과 규제의 범위 내에서 적법하게 정보를 처리할 수 있는 현실적인 가이드라인이 마련되길 기대해 본다.

2025.08.18 11:32상지영 법무법인 태평양

AI와 개인정보 '딜레마'…기업들은 어떻게 풀었을까

"경찰청 발표에 따르면 보이스피싱 피해는 2023년부터 피해액·건수가 급증해 올해에는 1조원이 넘는 피해가 예상된다. 이같은 피싱 예방에 인공지능(AI) 기반의 탐지 기술이 필요하다. KT는 통화 전·중·후 모든 과정에서 피싱 피해를 최소화할 수 있는 서비스를 연내에 출시할 계획이다." 6일 오후 2시 서울 성북구에 위치한 정동 1928 아트센터에서 개최된 '2025 생성형 인공지능과 프라이버시 오픈 세미나'에서 KT 미래네트워크연구소 안태진 팀장은 이같이 밝혔다. 세미나 기업 발제 세션에서 첫 발표에 나선 안 팀장은 KT가 가진 '3단'으로 보이스피싱을 예방할 수 있는 AI 기반 서비스에 대해 소개했다. 구체적으로 통화 이전에는 그래프 신경망(GNN·Graph Neural Network) 모델을 활용해 피싱 의심 번호를 사전에 탐지하고 이용자에게 알려주는 식으로 피싱 피해를 예방한다. 구체적으로 ▲하루 통화량 ▲통화 간격 ▲수신번호 ▲통화 실패율 ▲평균 통화 시간 ▲네트워크 크기 ▲관계 친밀도 등 7가지 특징을 학습하고 그래프로 분석해 정상번호와 피싱번호를 분류한다. 안 팀장은 "보이스피싱 통화는 일반 통화에 비해 통화하는 사람이 많을 수밖에 없고 보이스피싱이 통하지 않는 사람이 많기 때문에 통화 시간 또한 짧은 반면, 일반적인 통화는 자주 연락하는 연락처이거나 통화하는 시간이 보이스피싱 통화에 비해 긴 경우가 많다"며 "이런 경우를 그래프적인 특징을 통해서 보다 빠르게 보이스피싱 번호를 찾아낼 수 있다"고 설명했다. 또한 통화 중에는 실시간 통화 기반 보이스피싱 탐지 기술을 통해 목소리의 특징을 분석해 화자를 인식하고 이용자에게 팝업 등의 알림을 보내는 식으로 피싱 피해를 예방하는 서비스를 계획하고 있다. 통화 이후에는 이용자가 금전적 피해를 입지 않도록 금융권 현금인출이나 이체거래를 제한하도록 한다. 금융권 상담사에도 이상 거래 정보를 전달해 고객이 확인할 수 있도록 추가적인 조치가 가능하도록 하는 것이 AI 기반 KT 피싱 예방 서비스의 핵심이다. ◆ 스캐터랩의 '전화위복'…개인정보 보호 노력이 '혁신' 됐다 다음 발표에서는 스캐터랩 하주영 변호사가 스캐터랩이 직접 겪은 개인정보 보호 노력이 제품 혁신에 기여한 사례에 대해 소개했다. 앞서 스캐터랩은 AI 챗봇 서비스 '이루다'가 개인정보 침해 논란을 빚으면서 1년여간 대부분의 사업을 중단하고 가명처리기술 개발 등 개인정보 보호 강화에 모든 역량을 쏟은 것으로 전해졌다. 이후 우수한 수준의 가명처리 기술 개발에 성공했고 KISA 대회에서도 우승하는 등 성과를 내기도 했다. 실제로 스캐터랩이 개발한 챗봇 서비스 '제타'에도 이런 가명처리 기술이 접목돼 월 23억건의 대화를 생산하고 있는데도 개인정보 유출 등 프라이버시 사고가 발견되지 않았다. 하 변호사는 이를 '프라이버시 드리븐(privacy driven) 혁신'이라 표했다. 역경이 오면 강해지는 것 처럼, 회사가 프라이버시 이슈를 만나 이를 해결하기 위해 혁신에 성공했다는 것이다. 하 변호사는 "개인정보 측면에서 안전한 서비스를 만들겠다는 일념으로 단행한 노력들이 결국 선도적인 기술 혁신으로 이어졌다"면서 "한발 앞성 생성형 AI 기술 도입과 기술 신뢰 회복 노력 등이 제타와 같은 안정적인 서비스 운영에도 기여하고 있다"고 말했다. 법률 분야에서도 생성형 AI가 활용될 수 있다는 점도 눈길을 끌었다. 엘박스 이진 대표는 판결문 등 개인정보가 포함돼 있는 데이터를 다루기 때문에 익명화 역량이 높아졌으며, 데이터 익명화를 통한 안정성 확보 역시 새로운 시장이 될 수 있겠다는 시각을 제시했다. 이 대표는 "법률 업무 처리에는 99%는 텍스트 데이터가 활용되는데, 이는 생성형 AI와 찰떡궁합"이라며 "엑박스는 400만건에 달하는 판결문을 데이터로 보유하고 있고 이 데이터를 익명화하는 데에 기존에는 인력을 필요로 했지만, 이제 기술과 자본이 축적되면서 인공지능이 이 일을 대체하고 있다"고 설명했다. 법률 분야에서도 생성형 AI가 큰 활약을 하고 있다. 엘박스 이진 대표는 판결문 등 개인정보가 포함돼 있는 데이터를 다루기 때문에 익명화 역량이 높아졌으며, 데이터 익명화를 통한 안정성 확보 역시 새로운 시장이 될 수 있겠다는 시각을 제시했다. 이 대표는 "법률 업무 처리에는 99%는 텍스트 데이터가 활용되는데, 이는 생성형 AI와 찰떡궁합"이라며 "엑박스는 400만건에 달하는 판결문을 데이터로 보유하고 있고 이 데이터를 익명화하는 데에 기존에는 인력을 필요로 했지만, 이제 기술과 자본이 축적되면서 인공지능이 이 일을 대체하고 있다"고 설명했다. ◆ 개인정보 활용, 독이냐 약이냐 열띤 토론…"산업 경쟁력 훼손 없어야" 이후에는 생성형 AI 발달에 따른 개인정보 리스크를 어떻게 대응해야 하는지 열띤 토론이 이어졌다. 한국소비자연맹 정지연 사무총장은 "소비자들은 AI 기술에 대한 이해가 높을수록 AI에 대한 위험을 낮게 평가하고 있다"며 "프라이버시에 대한 위험을 소비자들이 막연하게 아는 것이 아니라 기업이 개인정보 보호를 위해 노력하고 있다는 점을 소비자들에게 적극 알려야 한다"고 말했다. 하주영 변호사는 "인공지능 데이터의 중요성이 증대될수록 개인정보 위험도 상승할 가능성이 높지만, 개인정보를 활용하는 것에 대한 편익이나 유용성도 섣불리 과대·과서 평가해선 안 된다"며 "편익과 리스크를 비교해서 균형을 조정하는 것이 앞으로의 관건이며, 그 과정에서 AI 산업 전체의 잠재력이 훼손되는 일이 있어선 안 된다"고 역설했다. KT Gen AI랩 박재한 팀장은 "웨어러블 디바이스 등에 AI가 탑재되는 경우에도 기존 정보보다 생체정보 등 훨씬 민감한 정보들이 생길 텐데 이를 어떻게 관리해야할까는 기업의 숙제"라며 "이와 동시에 고객에 맞춤형 서비스를 효율적으로 제공하는 방안에 대해서도 고민해야 하기 때문에 기업들이 기존보다 더 세밀한 고민을 이어가야 한다"고 강조했다. 한편 이날 세미나는 개인정보보호위원회(개보위)가 주최했고, 한국인터넷진흥원(KISA)가 주관한 행사다. 고학수 개보위 위원장을 비롯해 공공·민간 관계자 100여명이 참석했다. 첫 발표 세션에서 구민주 개보위 인공지능프라이버시팀장이 '생성형 AI 개발 활용을 위한 개인정보 처리 안내'와 관련한 발표를 진행했다.

2025.08.06 17:53김기찬

AI 기반 인사관리 위한 전제조건...'HR 데이터의 비식별화'

디지털 전환의 물결 속에서 인사관리(HR)의 영역도 빠르게 변화하고 있다. 단순 행정 업무를 넘어, 채용·이직 예측·성과 분석·조직 진단 등 기업의 전략적 의사결정에 HR 데이터가 직접 활용되기 시작했다. 특히 AI 기반 분석 도구가 확산되며, 많은 기업이 HR 솔루션 도입을 고민하고 있다. 하지만 이 과정에서 반드시 먼저 짚고 넘어가야 할 전제가 있다. 바로 'HR 데이터의 민감성'과 '비식별화' 문제다. 일반적으로 '개인정보'라고 하면 이름·주민등록번호·연락처 같은 식별자를 떠올리기 쉽다. 그러나 HR 데이터에는 이보다 훨씬 광범위하고 복합적인 정보가 포함된다. 직무 이력·평가 결과·상담 기록·병가 사유·건강검진 결과 등은 직원 개인의 성향과 상태를 민감하게 보여주는 정보다. 최근에는 조직문화 분석을 위해 직원 의견조사, 정성 코멘트 등 비정형 데이터 수집도 늘고 있다. 많은 기업이 AI 기반 인사관리를 도입하려고 할 때, 가장 먼저 마주치는 장애물도 여기에 있다. 실제로 내부 데이터를 활용하려 하면, 어디까지 정제하고 익명화해야 하는지 실무자는 막막함을 느끼는 경우가 많다. HR 데이터는 단순히 이름과 주민번호를 가린다고 보호되는 정보가 아니다. 예를 들어 '기획팀, 대리, 1990년생, 여성'이라는 속성 조합만으로도 특정 인물을 유추할 수 있다. 개별적으로는 익명처럼 보이는 정보도, 조합되면 강력한 식별성이 생기는 것이다. 따라서 단순한 익명화 수준을 넘어, 통계적 기법에 기반한 정교한 비식별화가 필요하다. 해외에서는 k-익명성(k-anonymity), ℓ-다양성(ℓ-diversity), t-근접성(t-closeness) 같은 수학적 모델을 활용해 식별 위험을 사전에 평가하고 통제하고 있다. 또한 상담 일지나 정성 코멘트처럼 자유 서술형 비정형 텍스트는 자연어처리(NLP) 기술을 통해 별도의 비식별화 절차를 가져야 한다. 이러한 과정을 거쳐야만 AI가 데이터를 안전하게 학습하고, 예측 및 분석에 활용할 수 있다. 다행히 국내에서도 최근 몇 년 사이, HR 데이터를 안전하게 활용하기 위한 제도적 기반이 조금씩 마련되고 있다. 2020년 개인정보보호법 개정 이후 '가명정보' 개념 도입을 시작으로, 개인정보보호위원회는 2023년 민감정보 처리 가이드라인을 발표하며 인사 데이터 처리의 기본 원칙을 제시했다. 2024년에는 '가명정보 결합 전문기관 제도'도 확대 시행되며, 기업이 데이터를 안전하게 가공하고 결합·분석할 수 있는 실질적 수단도 마련되고 있다. 그럼에도 여전히 현장에서는 제도 취지는 이해하지만, 실무 적용이 어려운 경우가 많다. 특히 HR 데이터는 급여, 평가, 근태 시스템 등 여러 플랫폼에 분산돼 있고, 클라우드 기반 솔루션이나 외부 위탁 운영도 늘어나면서 데이터 처리 책임의 경계가 모호해지는 경우가 발생한다. 많은 기업이 AI 기반 인사관리 도입을 계획하지만, 실제로는 '데이터 처리 단계'에서 멈추는 경우가 적지 않다. 기술은 준비돼 있어도 데이터를 정제하고 보호할 역량이나 인력이 부족하기 때문이다. 특히 중견·중소기업은 인사 담당자가 평가, 채용, 노무, 급여 등 다양한 업무를 동시에 수행하고 있어 데이터 거버넌스와 개인정보 보호까지 함께 담당하기엔 현실적 제약이 크다. 또 외부 솔루션을 도입하더라도 계약서에 명확한 보안 조항이나 데이터 비식별화 기준이 포함되지 않으면 추후 문제가 발생했을 때 대응이 어렵다. 기업 내부에서 실무자, 법무팀, 보안팀 간 역할과 책임을 계약서나 내부 지침에 따라 명확히 정립해야 하지만, 아직 이를 위한 체계를 갖추지 못한 기업이 많다. 기업이 HR 데이터를 안전하게 활용하기 위해서는 실무자 차원에서 ▲데이터 분류 ▲속성 조합의 식별 가능성 평가 ▲비정형 데이터 유무 확인 ▲외부 위탁 시 계약서 책임 조항 검토 ▲재식별 검증 및 로그 보관 체계 ▲AI 분석 목적일 경우 최소 정보 수집 여부 등을 확인해야 한다. 이런 체크리스트는 단순히 개인정보 보호법 준수를 위한 항목이 아니라, 조직 내 구성원 신뢰를 구축하고 인재 데이터를 전략적으로 활용하기 위한 기본 인프라다. 휴먼컨설팅그룹은 휴넬·제이드·탈렌엑스 등 자사 HR 솔루션에 이러한 요건을 체계적으로 반영해, HR 데이터 보호와 활용의 균형을 실현하고 있다. 인재 데이터를 다룬다는 것은 곧 구성원 한 사람 한 사람의 민감한 정보를 마주한다는 의미다. 이는 단순한 기술 문제를 넘어 조직의 윤리 수준과 신뢰 문화를 드러내는 지표이기도 하다. HR 데이터의 비식별화는 인사 실무자, 경영진, 보안 책임자 모두가 공동으로 고민하고 협업해야 할 과제다. “데이터 보호는 곧 구성원 보호”라는 인식이 조직 문화에 뿌리내릴 때, 기업은 비로소 AI를 진정한 HR 파트너로 받아들일 준비를 마쳤다고 할 수 있다.

2025.07.31 08:30허욱

굿모닝아이텍, 씨그래스 손잡고 AI 시대 '데이터 지킴이' 입지 강화

굿모닝아이텍이 인공지능(AI) 기반 데이터 거버넌스 분야 전문성과 경쟁력 강화에 나선다. 굿모닝아이텍은 씨그래스와 전략적 업무협약(MOU)을 체결했다고 25일 밝혔다. 이번 협약은 AI 시대의 핵심 자산인 데이터를 보다 안전하고 효율적으로 활용하기 위한 비전 아래 추진됐다. 최근 생성형 AI와 자동화 기술의 급속한 확산으로 데이터 활용의 폭과 깊이가 확대되는 가운데 개인정보 보호와 데이터 거버넌스의 중요성도 함께 주목받고 있다. 굿모닝아이텍은 씨그래스의 고도화된 개인정보 데이터 거버넌스 솔루션을 자사 클라우드·빅데이터·AI·정보보호 기술과 융합해 기업 고객에게 AI에 최적화된 데이터 관리·보호 체계를 제공할 계획이다. 또 이번 협약을 계기로 AI 시대의 데이터 활용과 보호를 동시에 실현하는 혁신적 모델을 제시하며 국내외 데이터 거버넌스 시장에서의 입지를 더욱 공고히 한다는 방침이다. 협약을 통해 양사는 AI 시대의 데이터 전략을 주제로 한 공동 프로모션 및 디지털 세미나·웨비나 등을 함께 기획·운영해 고객과의 접점을 확대하고 시장 인지도를 제고해 나갈 계획이다. 또 기술 및 인력 교류를 적극 추진해 AI 기반 데이터 거버넌스 분야에서의 전문성과 경쟁력을 강화하고 나아가 지속 가능한 혁신 생태계 구축을 위한 협력 체계를 공고히 해 나갈 방침이다. 이주찬 굿모닝아이텍 대표는 "AI 중심의 디지털 전환 시대에 개인정보 보호는 단순한 규제 대응을 넘어 기업의 지속 가능성과 신뢰를 좌우하는 핵심 요소"라며 "씨그래스와의 협력을 통해 고객에게 보다 지능적이고 안전한 데이터 관리 환경을 제공하고 국내외 데이터 거버넌스 시장을 선도해 나가겠다"고 밝혔다. 박성수 씨그래스 대표는 "굿모닝아이텍의 기술력과 시장 영향력은 씨그래스의 솔루션이 AI 시대에서 더 큰 가치를 창출하는 데 중요한 기반이 될 것"이라며 "이번 협약을 통해 양사가 함께 성장하고 고객의 데이터 전략 성공을 적극 지원하겠다"고 말했다.

2025.07.25 15:22한정호

과기정통부 '장·차관 원팀'…이틀간 '인프라·데이터' 족쇄 풀기 총력전

과학기술정보통신부 새 지도부가 인공지능(AI) 산업 육성을 위해 규제 혁신에 집중하고 있다. AI 3대 강국(G3) 도약을 위해 핵심 기반인 인프라와 데이터 분야의 해묵은 과제를 해결하겠다는 목표를 분명히 한 것이다. 25일 업계에 따르면 과학기술정보통신부는 이틀간 장관과 차관이 연이어 현장을 찾아 업계 의견을 수렴했다. 배경훈 장관은 지난 24일 AI 데이터센터(AIDC) 관련 기업들과, 류제명 제2차관은 이날 데이터 규제 관련 기업 및 전문가들과 각각 간담회를 가졌다. 배경훈 장관은 세종시 네이버 데이터센터에서 열린 간담회에서 AIDC를 '든든한 토양'으로 규정했다. 그는 정부가 '마중물' 역할을 해 가격 경쟁력 확보를 지원하겠다고 밝혔다. 업계는 이 자리에서 전력 공급난, 과도한 건축 규제, 높은 초기 투자 비용 등 현실적 어려움을 건의했다. 류제명 차관은 데이터 규제 혁신 간담회에서 AI 발전의 '원유'가 데이터라고 강조했다. 그는 과거 정부부터 이어진 데이터 규제 문제를 더 이상 미루지 않겠다고 선언하며 규제 샌드박스 활성화 등 구체적인 해결 의지를 보였다. 배경훈 장관, AIDC 현장 직접 찾아…'전력·규제' 문제 해결 약속 배경훈 장관은 'AIDC 현장 간담회'를 주재하며 AIDC 활성화를 가로막는 현실적 과제에 대한 업계의 목소리를 직접 들었다. 참석자들은 AIDC가 국가 경쟁력의 핵심 기반이라는 데 동의하며 전력, 규제, 비용 문제가 시급히 해결돼야 한다고 입을 모았다. 특히 안정적인 전력 공급과 비현실적 규제가 최우선 과제로 꼽혔다. 이준희 삼성SDS 사장은 현장과 맞지 않는 건축 규정과 전력 공급 문제를, 하민용 SK텔레콤 부사장은 전력구매계약(PPA) 허용을 포함한 인허가·세제 혜택 종합 정책 패키지를 요청했다. 막대한 초기 투자 비용과 사업 지연 문제도 도마에 올랐다. 김동훈 NHN클라우드 대표는 정부가 선제적으로 부지와 전력을 확보해 제공하는 모델을 제안했고 최지웅 KT클라우드 대표는 3년 이상 소요되는 구축 기간을 단축할 인허가 간소화와 설비 투자 세제 혜택이 절실하다고 밝혔다. 학계와 협회에서는 더 근본적인 해법이 제시됐다. 박윤규 정보통신산업진흥원장은 AIDC를 사회간접자본(SOC)으로 보고 관련 규제를 일괄 해결할 '특별법' 제정을, 이경무 서울대 교수는 산업계와 학계의 단절 문제 해결을 촉구했다. 이에 배경훈 과기정통부 장관은 현장 건의를 정책에 신속히 반영하겠다고 화답했다. 배 장관은 "취임 후 매일 양복을 입었지만 오늘 운동화를 신고 편하게 왔다"며 "초심을 잃지 않고 AI 문제만큼은 형식에 얽매이지 않고 유연하고 신속하게 접근하겠다는 의지를 보여드리고 싶었다"고 말했다. 류제명 차관, '데이터 족쇄' 직접 푼다…'해묵은 규제' 정면돌파 선언 류제명 제2차관은 AI 발전에 필수적인 데이터 문제를 해결하기 위해 기업 및 법률 전문가들과 머리를 맞댔다. 류 차관은 AI 발전의 '원유'가 데이터라고 강조하며 과거 정부부터 이어진 데이터 규제 문제를 더 이상 미루지 않겠다는 뜻을 분명히 했다. 그는 "이 문제를 계속 끌고 시간을 낭비할 시간이 없다"며 "데이터 규제 분야의 날카로운 비평가로 꼽히는 구태언 변호사에게 발제를 맡긴 것 역시 문제를 회피하지 않고 제대로 부딪쳐 해결하겠다는 의지였다"고 설명했다. 이어 간담회에 참석한 업스테이지, 루닛 등 AI 기업들은 현실적인 어려움을 설명했다. 업계는 혁신적인 아이디어를 사업화하는 과정에서 여전히 데이터 관련 규제가 제약 요인이 되고 있다고 밝히며 공공 데이터 활용을 위한 규제 샌드박스 활성화 등을 제언했다. 이에 류 차관은 이번 간담회가 일회성 행사가 아님을 분명히 했다. 류제명 과기정통부 제2차관은 "데이터 문제는 한두 번의 간담회로 끝낼 문제가 아니고 장애물 제거 작업을 끝낼 때까지 해야 하는 이슈"라며 "국가AI위원회를 중심으로 데이터 규제 혁신이 차질 없이 추진되도록 최선을 다하겠다"고 강조했다.

2025.07.25 11:34조이환

[현장] 류제명 차관, 취임 후 매주 현장으로…"AI 데이터 규제, 이번엔 끝장 본다"

류제명 과학기술정보통신부 제2차관이 인공지능 3대 강국(AI G3) 실현을 가로막는 데이터 규제 문제를 정면 돌파하겠다고 선언했다. AI 산업 발전의 최대 걸림돌로 꼽혀온 해묵은 과제를 더는 미루지 않고 신속하게 해결하겠다는 의지를 내비친 것이다. 과기정통부는 25일 서울 마포 SW마에스트로 센터에서 열린 'AI 3대 강국을 위한 데이터 규제 혁신 현장 간담회'를 주재했다. 이날 간담회는 과기정통부가 한국지능정보사회진흥원(NIA)이 공동 주최했으며 류제명 차관 취임 후 매주 이어지는 릴레이 현장 소통의 일환이다. 류 차관은 AI 발전의 가장 중요한 '원유'가 데이터라고 정의했다. 그는 컴퓨팅 자원 확보나 인재 양성도 중요하지만 데이터 문제가 해결되지 않으면 심각한 장애물이 될 수밖에 없다고 진단했다. 그는 데이터 규제 논란이 한두해 있었던 게 아니라고 짚었다. 지난 문재인 정부의 4차산업혁명위원회와 지난 정부의 디지털플랫폼정부위원회 등에서 많은 노력이 있었지만 여전히 해결되지 않은 문제가 많다는 지적이다. 류 차관은 "이 문제를 계속 끌고 시간을 낭비할 시간이 없다"며 "배경훈 장관 등 새 지도부가 출범한 직후 현장 간담회를 연 것도 속도감 있는 문제 해결을 위한 것"이라고 설명했다. 그는 최근 발표된 미국 정부의 'AI 액션 플랜'을 예로 들었다. 해당 계획 역시 AI 혁신 가속화를 위해 규제 해결을 첫손에 꼽았다며 글로벌 흐름에 맞춘 신속한 대응의 중요성을 강조했다. 이날 참석한 업스테이지, 루닛, 더존비즈온 등 AI 기업들은 데이터 확보의 현실적인 어려움을 설명했다. 업계는 혁신적인 아이디어를 사업화하는 과정에서 여전히 데이터 관련 규제가 제약 요인이 되고 있다고 밝히며 공공 데이터 활용을 위한 규제 샌드박스 활성화 등을 제언했다. 류제명 과기정통부 제2차관은 "한두 번의 간담회로 끝낼 문제가 아니고 장애물 제거 작업을 끝낼 때까지 해야 하는 이슈"라며 "현장의 목소리를 반영해 구체적인 정책 과제를 발굴하고 국가AI위원회를 중심으로 규제 혁신을 차질 없이 추진하겠다"고 밝혔다.

2025.07.25 11:15조이환

스캐터랩, '이루다' 개인정보 소송 1심 패소…"사업엔 영향 없어"

인공지능(AI) 플랫폼 '제타'의 흥행으로 성장을 이어가던 스캐터랩이 과거 '이루다' 챗봇 개발 당시 수집된 메신저 데이터를 둘러싼 법적 책임을 일부 인정받으면서 논란이 재점화됐다. 회사 측은 이번 판결이 현재 수익 구조나 사업 전략에 실질적 영향을 미치진 않는다는 입장이다. 15일 업계에 따르면 서울동부지법은 지난달 스캐터랩이 이용자 동의 없이 수집한 메신저 데이터를 AI 챗봇 '이루다' 개발에 활용한 점을 문제 삼아 일부 손해배상 책임을 인정했다. 해당 데이터는 자사 연애 심리 분석 앱을 통해 수집한 것이었다. 이 판결은 지난 2021년 제기된 246명 규모의 집단소송 1심 결과로, 법원은 실제 문장 유출 여부가 확인되지 않은 경우에도 개인정보가 사전 동의 없이 활용된 점을 고려해 원고 일부에게 10만~40만원의 위자료 지급을 명령했다. 배상 총액은 약 2천만원 규모인 것으로 알려졌다. '이루다'는 지난 2020년 스캐터랩이 출시한 AI 챗봇으로, 20대 여성 캐릭터 콘셉트로 설계됐다. 자연스러운 대화 능력으로 화제가 됐지만 학습에 사용된 대화 데이터가 개인정보 동의 없이 수집된 정황이 드러나며 출시 한 달 만에 서비스가 중단됐다. 스캐터랩은 항소 의사를 밝혔다. 회사 관계자는 "전반적으로 더욱 정교한 법리적 검토와 논의가 이뤄질 것으로 예상된다"며 "이번 판결은 단순 금액 문제가 아니라 법률적 판단과 절차의 일환으로 보고 있다"고 밝혔다. 사업적 영향에 대해서도 선을 그었다. 같은 관계자는 "현 시점에서 실질적인 영향은 크지 않을 것으로 본다"며 "소송 제기 시점은 약 3년 전으로, 이미 관련 시정명령을 모두 이행 완료했고 청구액 중 일부만 인정된 점 등을 고려하면 현재 사업 구조 내에서는 큰 변화가 없을 것"이라고 설명했다. 이루다 개인정보 수집 방식에 대한 비판은 지난 2020년 제기된 바 있다. 스캐터랩은 지난 2022년 10월 '이루다 2.0' 출시 시점에 맞춰 개인정보 제공 동의 절차 등을 전면 수정했다고 밝힌 상태다. 이후 방송통신위원회의 '생성 AI 이용자 가이드라인'에 회사 운영정책이 모범 사례로 다수 포함됐으며 개인정보보호위원회의 민관 협의체에도 지속적으로 참여 중이라는 설명이다. 이번 판결은 스캐터랩이 3분기 연속 흑자를 발표한 직후에 나왔다. 가장 최근 분기 기준 매출 52억원, 영업이익 8억7천만원을 기록했다. 스캐터랩 관계자는 "이번 소송은 과거 이슈에 대한 법적 검토일 뿐 현재 사업 흐름과는 직접적 연관성이 없다"며 "시정조치 완료 이후 책임 있는 운영을 위해 꾸준히 제도권과 협의해오고 있으며 향후에도 AI 윤리를 기반으로 서비스를 개선해나가겠다"고 말했다.

2025.07.15 14:49조이환

AI시대 개인정보 보호 입법방향 토론회 열린다

국회 정무위원회 소속 국회의원 김남근, 김승원, 김용만, 김현정, 민병덕, 박범계, 박찬대, 이인영, 이정문, 허영 의원이 공동으로 주최하고 한국정보통신법학회와 한국데이터법정책학회가 주관하는 'AI 시대, 개인정보 입법방향 토론회'가 오는 15일 오후 2시 국회의원회관 제3간담회실에서 열린다. 토론회는 지난해 8월 EU의 AI법 제정을 계기로 전 세계적으로 AI 규제 입법이 본격화되는 가운데, 우리나라의 AI 혁신 촉진과 개인정보 보호의 균형점을 모색하기 위해 마련됐다. 강혜경 고려대 박사가 'EU 인공지능법이 촉발한 AI 글로벌 규제 동향'을 주제로 EU, 미국, 중국, 일본 등 주요국의 AI 규제를 비교 분석하는 발제를 맡았다. 또 민경식 VeraSafe 변호사가 'AI 시대 데이터 활용과 개인정보 보호의 딜레마'를 주제로 글로벌 기업의 전략과 법적 쟁점을 발표한다. 이성엽 고려대 교수(한국정보통신법학회장)가 좌장을 맡아 진행되는 토론에는 심우민 경인교대 교수, 윤아리 김앤장 법률사무소 변호사, 이진규 네이버 전무, 오병일 진보네트워크센터 대표, 공진호 과학기술정보통신부 인공지능기반정책과장, 김직동 개인정보보호위원회 개인정보보호정책과장이 참여한다. 토론회를 주관한 이성엽 고려대 교수는 “AI 기술의 급속한 발전으로 개인정보 활용과 보호의 패러다임이 근본적으로 변화하고 있다”며 “대규모 데이터 학습을 기반으로 하는 AI 시대에 맞는 새로운 개인정보 보호 법제를 설계해 혁신을 저해하지 않으면서도 정보주체의 권리를 보장하는 균형 잡힌 입법 방향을 모색해야 한다”고 말했다.

2025.07.11 15:47박수형

"AI 발달로 나도 모르게 개인정보 불법 수집"

'인공지능(AI)이 발달해 나도 모르게 개인정보를 불법으로 수집하게 됐다'는 기업이나 기관 개인정보처리자에게 위법 기준이 제시됐다. 권헌영 고려대 정보보호대학원 교수는 28일 서울 삼성동 코엑스에서 열린 '개인정보 보호 페어(PIS FAIR) 2025'에서 '인공지능과 개인정보 처리의 주요 쟁점 대응 방안'을 발표했다. 권 교수는 “AI 시대에 개인정보 이용 방식도 바뀌고 있다”며 “정보 주체가 누군지 모르는 상황이었지만 AI로 누군지 식별돼 버리면 개인정보처리자는 불법을 저지르게 된다”고 말했다. 그러면서 AI 시대 저절로 수집되는 개인정보를 보호하는 방법을 안내했다. 우선 공개된 개인정보를 수집·이용할 수 있는 기준을 지키면 된다. 공공의 이익, 처리 필요성 등이다. 가명정보도 방안 중 하나지만 실효성은 적다고 평가된다. 권 교수는 “한국에서는 가명정보도 개인정보로 취급해 개인정보보호법으로 규제한다”며 “가명으로 처리하는 이유는 수집 목적 아닌 이유로 쓰려는 것인데, 수집 목적 아닌 이유로 쓰려면 동의 받아야 해서 이 과정이 돌고 돈다”고 짚었다. AI로 세상이 바뀌었지만 관행을 이어가는 일은 올바르지 않다고 봤다. 권 교수는 “첨단 기술을 활용해 개인정보를 쓰면서도 동의서 받는 법적 체계는 옛날식”이라며 “종이로 서명하면 사람이 부인하지 않을 거라 생각하고, 디지털로 서명하면 나중에 부정할까 봐 그러는 것 같다”고 분석했다. 그는 “정보 주체로부터 '당신의 개인정보를 이렇게 쓰겠습니다'라며 수집 동의 받는다”며 “최근 문제는 안 받아도 될 동의까지 받는 점”이라고 지적했다. 이어 “다른 목적으로 쓸 때에만 개인정보 제공 동의를 받으면 된다”며 “버스에 타 교통카드 찍을 때마다 '나는 누구고, 어디서 타서 어디에 내릴 테니 개인정보 내는 데 동의한다'고는 안 한다”고 설명했다.

2025.05.28 15:37유혜진

피규어·지브리 프사 만들기?…"챗GPT 개인정보 유출 위험"

인공지능(AI) 챗봇 '챗GPT'로 유행 따라 사진을 피규어나 일본 지브리스튜디오 애니메이션처럼 만들다가는 개인정보를 털릴 수 있다고 미국 잡지 와이어드는 1일(현지시간) 보도했다. 운영사 오픈AI는 새로운 GPT-4o 기반 이미지 생성기로 챗GPT의 사진 편집, 텍스트 렌더링 기능을 키웠다고 와이어드는 평가했다. 챗GPT 무료 계정과 사진만 있으면 재미있고 쉽게 이미지를 만들 수 있다. 그러나 피규어나 지브리 같은 그림을 만들려면 오픈AI에 많은 정보를 넘겨야 한다고 와이어드는 지적했다. 오픈AI는 이 정보로 인공지능을 학습시킬 수 있다. 유럽 OPIT(Open Institute of Technology)의 톰 바즈다 사이버보안학과장는 “챗GPT에 사진을 올릴 때마다 메타데이터 덩어리를 넘겨주는 셈”이라며 “사진 촬영 시간, 촬영 장소의 (GPS) 좌표 등 그림 파일에 첨부된 정보가 포함된다”고 말했다. 메타데이터(Metadata)란 다른 정보를 나타내는 정보를 뜻한다. 오픈AI는 챗GPT에 접속하는 기기 정보도 모으는 것으로 알려졌다. 기기 유형, 운영 체제, 브라우저 버전, 고유 식별자 등이다. 바즈다 학과장은 “챗GPT는 대화하듯 작동하기에 입력한 내용, 요청한 그림 종류, 인터페이스와의 상호 작용 방식, 동작 빈도와 같은 행동 정보도 수집한다”며 “생성형 AI를 훈련하는 금광”이라고 표현했다. 얼굴만 그런 게 아니다. 위험 관리 회사 GRC인터내셔널그룹의 캠든 울븐 AI제품 마케팅 책임자는 “고해상도 사진을 올리면 피사체뿐 아니라 배경, 다른 사람, 방 안의 물건, 문서처럼 읽을 수 있는 모든 것을 오픈AI에 주는 격”이라고 설명했다. 오픈AI는 생성형 AI를 학습시키려고 개인정보를 적극적으로 수집하지 않으며 인터넷 공개 정보로 사용자 프로필을 구축하고 광고하거나 정보를 팔지 않는다고 와이어드에 밝혔다. 그러나 오픈AI의 개인정보 보호 정책에 따라 챗GPT로 올라온 이미지는 보관되고, 생성형 AI를 개선하는 데 쓰일 수 있다고 와이어드는 비판했다. 챗GPT에서 정보를 지킬 가장 효과적인 방법은 채팅 기록을 끄는 일이라고 와이어드는 소개했다. 파일에서 메타데이터를 지우고 올려도 좋다. 사진 편집 도구를 쓰면 된다. 바즈다 학과장은 “사용자는 민감한 개인정보를 챗GPT에 쓰지 말고 정보를 알 수 있는 배경이 있는 사진이나 단체 사진은 올리지 말아야 한다”며 “이렇게 하면 내 정보가 챗GPT 훈련에 쓰이지 않도록 할 수 있다”고 조언했다.

2025.05.03 07:48유혜진

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

8나노 몰리고, 4나노 안정…탄력받는 삼성 파운드리

로봇용 OLED 시장 노리는 삼성·LG…넘어야 할 2가지 과제

"조선·플랜트 용접 자동화 가속"…제이씨티, 협동로봇 '제품화' 승부수

[AI는 지금] 독파모 '패자부활전' 할까 말까…"혜택 크다" vs "역효과"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.