• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'개인 정보 보호'통합검색 결과 입니다. (111건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

프랜차이즈, 자사앱 활성화 안간힘…이용자 보호는?

프랜차이즈 업계가 자사 앱 이용을 늘리는 흐름이 뚜렷해지면서, 개인정보 보호에 대한 관심과 투자의 중요성도 커지고 있다. 자사 앱을 통해 수집·이용되는 개인정보의 양이 방대해지는 만큼, 고객 보호를 위한 보다 강화된 보안 조처가 필요해 보인다. 20일 관련업계에 따르면, 프랜차이즈 업계는 자사 앱을 키우는 데 앞다퉈 속도를 내고 있다. 배달 플랫폼 수수료 부담을 낮추고, 멤버십·쿠폰·선물하기·퀵오더 등 기능을 통해 충성 고객을 직접 확보하려는 목적에서다. 앱 주문 비중이 커질수록 본사가 고객 데이터를 축적할 수 있고, 이를 마케팅이나 메뉴 기획, 재구매 유도에 활용할 수 있다는 점도 자사 앱 강화의 동력으로 꼽힌다. 한 프랜차이즈 업계 관계자는 "외식 프랜차이즈의 경우 자사 앱이 없는 곳은 손에 꼽힌다"며 "점주에게도 배달수수료 절감 등의 이점이 있는 만큼 자사 앱 확대는 프랜차이즈로써는 숙제"라고 설명했다. 자사앱 확대 속도에 못 미치는 개인정보 관리 수준 문제는 업계 전반의 개인정보 관리 수준이 자사앱 확대 속도를 따라가지 못하고 있다는 점이다. 앱의 기능이 늘수록 수집 항목과 처리 과정이 복잡해지는 만큼, 개인정보 침해나 사고로 이어질 가능성이 크다는 지적이 나온다. 실제로 지난해에는 파파존스와 써브웨이 등 프랜차이즈에서 주문 페이지 취약점으로 고객 주문정보와 주소 등이 노출될 수 있다는 우려가 나왔다. 이들 프랜차이즈는 주문조회 페이지 주소 일부를 바꾸는 방식으로 다른 고객 정보에 접근할 수 있어 논란이 됐다. 국회 과학기술정보방송통신위원회에 따르면 파파존스가 개인정보를 유출한 기간은 총 8년 6개월, 이를 통해 유출된 개인정보는 약 3730만 건으로 추정된다. 여기에 전자금융거래에 따른 정보는 최대 5년간 보관할 수 있지만, 회사는 소비자의 주문 정보를 8년 이상 보관했다. 이에 김승주 고려대 정보보호대학원 교수는 “이 정도로 기본적인 보안조차 마련되지 않은 기업은 처음”이라고 지적하기도 했다. 올해도 개인정보 보호법을 위반한 프랜차이즈들이 도마에 올랐다. 개보위는 지난 11일 제3회 전체회의에서 식음료 프랜차이즈와 원격 예약 플랫폼 등 10개 사업자의 개인정보 보호법 위반 행위에 대해 총 15억 6600만원의 과징금과 1억 1130만원의 과태료를 부과하고 시정명령·공표명령을 의결했다. 이들 중 다수 기업은 개인정보 미파기와 안전조치 미흡 등 '관리 부실'로 적발됐다. 여기에 버거킹 운영사 비케이알과 메가MGC커피 운영사 엠지씨글로벌 두 곳은 동의 없는 처리와 목적 외 이용 등 위반 무게가 큰 사안까지 지목돼 과징금이 집중됐다. 개인정보보호위원회는 비케이알이 법정대리인 동의 없이 만 14세 미만 아동 개인정보를 처리했고, 엠지씨글로벌은 마케팅 활용에 동의하지 않은 회원이 자동 동의 처리돼 메시지가 발송되도록 설정돼 있었다고 설명했다. 프랜차이즈 "개인정보 보호 조치 강화" 한 목소리...전문가 "보안 투자 필수" 프랜차이즈 기업들의 자사 앱 확대가 흐름인 만큼, 각 사는 개인정보 보호 조치를 강화하고 있다고 설명했다. 파파존스는 “지난해 주문 시스템 관련 논란 이후 한국인터넷진흥원(KISA)을 통한 보안 취약점 점검을 진행했고, 점검 과정에서 제시된 권고사항은 모니터링하며 적용을 진행 중”이라고 밝혔다. 최근 개인정보위 제재 대상에 포함된 투썸플레이스는 이번 사안이 “키오스크 주문 시 진동벨 발급 과정에서 전화번호를 수집한 것이 문제로 지적된 것”이라며 “현재는 관련 절차를 수정한 상태”라고 설명했다. 교촌은 “자사 앱 규모가 커진 만큼 개인정보 관리에 더 신중을 기하고 있다”며 “관련 업무를 맡는 보안 조직이 사내에 별도로 존재하고, 개인정보 관리에 신경쓰고 있다”고 말했다. 회사의 자사 앱 가입 회원 수는 약 733만명으로 전년 대비 약 17.7% 증가했고, 자사앱 매출 비중은 전체의 12% 수준이다. bhc는 앱 개편 과정에서 접근 통제를 손봤다고 밝혔다. bhc를 운영하는 다이닝브랜즈그룹 관계자는 “앱 개편 시 개인정보를 곧바로 열람할 수 없게 이중화 조치를 취했다”며 “2024년 IT 전략실을 신설하며 관련 체계를 공고히 한 상태”라고 설명했다. 염흥열 순천향대 정보보호학과 교수는 프랜차이즈가 자사 앱 회원 수 늘리기에만 급급하면 사고 가능성이 커진다고 지적했다. 그는 “프랜차이즈의 경우 현장에서 개인정보 관리가 미흡하다는 얘기를 많이 듣는다”며 “특히 전화번호처럼 수집 가능성이 큰 정보는 유출 시 2차 피해로 이어질 수 있어 관리가 필요하다”고 말했다. 특히 논란이 됐던 써브웨이의 사례를 예로 들어 “주문 페이지에서 URL의 일련번호만 바꿔도 다른 이용자 정보가 보이는 구조는 정보보호 측면에서 많이 미흡하다고 볼 수 있다”면서 “ID를 바꾸면 다시 인증을 거쳐야 하는데, 그런 과정 없이 다음 정보를 보여주는 방식은 취약점”이라고 설명했다. 염 교수는 “프랜차이즈 업계도 개인정보 유출로 처벌을 받은 사례가 있고, 공격 방식도 이미 알려져 있다”며 “과거 사례를 타산지석으로 삼아 자사 데이터베이스 관리에 취약점이 없는지 점검해야 한다”고 강조했다.

2026.02.20 17:42류승현 기자

명품 브랜드 SaaS 해킹 사태, 남일 아니다…클라우드 통제권 부각

루이비통·디올·티파니 등 글로벌 명품 브랜드 3곳이 서비스형 소프트웨어(SaaS) 기반 고객관리 시스템 운영 과정에서 대규모 개인정보 유출 사고를 겪은 가운데, 기업 클라우드 통제권이 산업 전반의 화두로 떠오르고 있다. 19일 업계에 따르면 이번 사태는 단순한 보안 취약점 문제를 넘어 SaaS 중심 클라우드 구조 속에서 기업 데이터 통제권의 중요성을 드러낸 사례로 평가된다. 개인정보보호위원회(개인정보위)는 지난 11일 전체회의를 열고 개인정보보호법을 위반한 루이비통코리아, 크리스챤디올꾸뛰르코리아, 티파니코리아 등 3개 사업자에 총 360억 3300만원의 과징금과 1080만원의 과태료를 부과했다. 이들 기업은 SaaS 기반 고객관리 서비스를 운영하는 과정에서 개인정보 유출 사고가 발생했다. 루이비통은 직원 기기 악성코드 감염으로 SaaS 계정 정보가 탈취되며 약 360만 명의 개인정보가 세 차례에 걸쳐 유출됐다. 디올과 티파니 역시 SaaS 접근 권한 관리 과정에서 허점이 드러나 각각 195만 명, 4600여 명의 정보가 외부로 빠져나갔다. 표면상으론 해킹이나 피싱, 내부 관리 부실이 주요 문제로 지적되지만 업계에서는 이를 SaaS 기반 클라우드 운영 구조의 한계를 보여준 사례로 보고 있다. 고객 데이터는 기업 소유이나 실제 시스템 운영과 접근 권한 설정은 외부 SaaS 플랫폼 구조에 의존하는 만큼 통제 경계가 복잡해졌다는 분석이다. SaaS는 자체 서버에 소프트웨어(SW)를 설치하는 대신 인터넷을 통해 클라우드 형태로 제공받는 방식이다. 초기 구축 비용을 줄이고 유지관리 효율성을 높일 수 있어 많은 기업이 글로벌 SaaS를 도입하고 있지만, 데이터·계정·접근 권한 관리 역시 서비스 구조에 종속되는 특징을 갖는다. 특히 SaaS 환경에서는 '책임 공유 모델'의 경계가 모호해질 수 있다는 지적이 나온다. 인프라형 클라우드(IaaS)는 인프라를 제공하는 클라우드 서비스 기업(CSP)과 고객의 책임 구분이 비교적 명확하다. 반면 SaaS는 애플리케이션 보안 설정, 접근 통제, 로그 관리 등이 계약 조건과 사업자 정책에 따라 달라진다. 결과적으로 기업은 데이터를 보유하면서도 세부 운영 통제 범위는 제한될 수 있다는 의미다. 이 같은 문제는 SaaS 확산 흐름과도 맞닿아 있다. 시장조사업체 아스튜트 애널리티카에 따르면 기업들은 평균 110개 이상의 SaaS 애플리케이션을 사용하는 것으로 나타났다. SaaS가 늘어날수록 비용 중복, 가시성 부족, 거버넌스 리스크 역시 확대되는 구조다. 여러 SaaS에 데이터가 분산되면 기업 내부에서 전체 데이터 흐름과 접근 권한을 통합적으로 파악하기도 쉽지 않다. 국내 기업들도 고객관계관리(CRM)·협업툴·HR·마케팅 자동화 등 핵심 업무를 글로벌 SaaS에 의존하는 비중이 빠르게 확대되고 있다. 특히 멀티 SaaS 환경이 일반화되면서 기업 내부에서 데이터 흐름과 접근 권한을 통합적으로 관리하기 더 어려워지고 있다는 지적이 나온다. 해외 업계에서도 SaaS 확산에 따른 관리 난이도가 주요 과제로 지목된다. SaaS는 도입은 쉽지만 관리가 어렵고 누가 어떤 애플리케이션에 접근하고 있는지 지속적으로 관리하는 것은 쉽지 않다는 분석이다. 가시성이 확보되지 않으면 비용 통제뿐 아니라 데이터 거버넌스 측면에서도 공백이 생길 수 있다는 우려가 제기된다. 이번 제재 과정에서 개인정보위는 SaaS를 도입하더라도 개인정보 보호 책임이 면제되거나 전가되지 않는다고 강조했다. 규제 관점에서 결과 책임은 기업에 있다는 점을 재확인했다. 다만 업계에서는 실제 운영 통제 범위와 법적 책임 범위 사이의 괴리를 줄이기 위한 계약·관리 체계 보완이 필요하다는 의견도 나온다. ▲접근 로그의 실시간 확보 및 보존 범위 ▲데이터 저장 리전과 이전 가능성 ▲재위탁 사업자 운영 구조 ▲대량 다운로드 제한 정책 ▲사고 발생 시 통지 의무와 범위 등을 계약 단계에서 명확히 규정해 구체적인 통제 환경을 갖춰야 한다는 설명이다. 공공·금융 등의 시장에서도 인공지능(AI)과 클라우드 기반 서비스가 빠르게 확산되는 상황에서 SaaS 의존도는 더욱 높아질 전망이다. 마케팅, 고객관리, 협업, 인사관리 등 핵심 업무가 클라우드 플랫폼 위에서 구동되면서 기업은 점점 더 클라우드 구조 안에서 사업을 운영하게 된다. 이 과정에서 보안 강화 못지않게 데이터 접근 구조, 로그 확보 권한, 벤더 관리 체계 등 통제 가능한 거버넌스 설계가 중요해질 것으로 보인다. 업계 관계자는 "단순히 클라우드 서비스를 쓰는 것이 능사가 아니라 얼마나 통제 가능한 구조를 설계했느냐가 관건"이라며 "AI와 SaaS가 확산되는 상황에서 보안 솔루션을 덧붙이는 방식에 앞서 기업 스스로 데이터 흐름과 책임 구조를 처음부터 설계하는 접근이 필요하다"고 말했다.

2026.02.19 15:06한정호 기자

[법과 상식 사이] 이름도 개인정보가 아닐 수 있다?

“사람 이름을 아는 것만으로 개인정보 문제가 생길까?” 일상에서 우리는 수많은 사람의 이름을 알고 살아간다. 학교 친구의 이름을 기억하기도 하고 거래처 담당자의 이름을 휴대전화에 저장해 두기도 한다. 이름을 알고 있다는 사실 자체만으로는 대체로 법적 문제가 되지 않는다. 그럼에도 개인정보보호법을 이야기할 때 많은 사람들은 이름이나 연락처처럼 개인과 관련된 정보는 모두 법의 엄격한 보호 대상이라고 생각하는 경우가 적지 않다. 하지만 개인정보보호법에서 보호하려는 개인정보는 단순히 '개인과 관련된 정보'라는 의미보다 한층 더 구체적인 개념이다. 법은 특정 개인을 알아볼 수 있는 정보를 개인정보로 정의한다. 다시 말해, 정보의 종류보다 그 정보로 실제 개인을 식별할 수 있는지 여부가 중요하다. 이러한 기준 때문에 개인정보는 절대적으로 고정된 개념이 아니라 이용되는 환경과 결합 가능성에 따라 달라질 수 있는 상대적인 개념이 된다. 그래서 같은 이름이나 번호라도 어떤 상황에서는 개인정보가 되고, 어떤 경우에는 그렇지 않을 수 있다. 예를 들어 '김철수'라는 이름만으로는 동일한 이름을 가진 사람이 많아 일반적으로 특정 개인을 식별할 수 있다고 보기는 어렵다. 그러나 '○○고등학교 3학년 김철수'처럼 추가적인 속성 정보가 결합되면 누구인지 특정할 수 있는 가능성은 높아진다. 여기에 거주 지역이나 동아리 활동 정보까지 더해지면 식별 가능성은 현저히 증가한다. 직장 정보도 마찬가지다. '대기업 인사팀장'이라는 표현만으로는 특정 개인을 떠올리기 어렵지만 직원 수가 적은 회사에서 해당 직위를 가진 사람이 한 명뿐이라면 개인을 식별할 가능성이 생길 수 있다. 휴대전화 번호 전체는 개인을 식별할 수 있는 정보이지만 일부 숫자만으로는 특정 개인을 알아보기 어려운 경우가 많다. 다만 여기에 이름이나 직장 정보가 결합되면 다시 개인정보에 해당할 가능성이 높아진다. 결국 개인정보에 해당하는지는 정보의 내용만으로 기계적으로 판단되는 것이 아니라 조직 규모나 이용 환경 같은 맥락까지 함께 고려해 판단해야 한다. 개인정보 개념의 상대성 개인정보를 상대적인 개념으로 이해해야 한다는 점은 법 적용 과정에서 불확실성을 동반한다. 기술 수준이나 정보 결합 가능성에 따라 개인정보 해당 여부가 달라질 수 있어 규제 예측 가능성이 낮아진다는 비판도 존재한다. 그럼에도 법이 이러한 구조를 채택한 이유는 보호 대상을 미리 정해진 정보의 목록으로 한정할 경우 기술 발전과 함께 나타나는 새로운 식별 위험을 효과적으로 포착하기 어렵기 때문이다. 실제로 오늘날에는 위치정보, 온라인 활동 기록, 소비 패턴처럼 단독으로는 개인을 특정하기 어려운 정보라도 다른 데이터와 결합될 경우 특정 개인을 정밀하게 식별할 수 있다. 개인정보 보호가 요구되는 이유 역시 정보 자체를 보호하기 위해서라기보다 해당 정보를 통해 개인이 원하지 않는 방식으로 특정되거나 분석될 위험을 방지하기 위해서다. 이러한 맥락에서 개인정보보호법은 보호 대상을 개별 정보의 종류가 아니라 '개인을 식별할 수 있는 가능성'에 두고 있다. 가명정보는 여전히 보호대상 최근에는 통계 작성이나 연구를 목적으로 개인을 직접 식별할 수 있는 요소를 제거한 데이터 활용이 확대되고 있다. 그러나 이러한 정보가 곧바로 개인정보에서 제외되는 것은 아니다. 이름이나 주민등록번호와 같은 직접 식별 정보를 삭제하거나 대체하더라도, 다른 정보와 결합하거나 추가 분석을 통해 특정 개인을 다시 알아볼 수 있다면 해당 정보는 여전히 개인정보에 해당한다. 개인정보보호법은 이러한 중간 형태의 데이터를 '가명정보'로 구분한다. 가명정보는 추가 정보 없이는 특정 개인을 알아볼 수 없도록 처리된 정보이지만 재식별 가능성이 완전히 제거된 것은 아니다. 이 때문에 가명정보는 일정 범위에서 활용이 허용되면서도 여전히 개인정보로서 법적 보호의 대상이 된다. 개인정보에 해당하는지는 단순히 식별 정보가 삭제되었는지 여부만으로 결정되지 않는다. 정보의 결합 가능성, 재식별에 필요한 비용과 기술 수준, 그리고 정보가 이용되는 환경까지 종합적으로 고려된다. 데이터 분석 기술이 발전할수록 과거에는 안전하다고 평가되었던 정보라도 다시 개인을 식별할 위험을 가질 수 있기 때문이다. 이러한 이유로 개인정보 판단 기준은 고정된 정보 목록이 아니라 기술 변화와 이용 맥락에 따라 유동적으로 해석될 수 밖에 없다. 이처럼 개인정보에 해당하는지는 정보의 형태만 보고 단순하게 판단할 수 없다. 핵심 기준은 결국 “이 정보로 특정 개인을 식별할 수 있는가”라는 질문에 있다. 같은 정보라도 이용되는 환경과 다른 정보와의 결합 가능성에 따라 개인정보가 될 수도 있고 그렇지 않을 수도 있다. 따라서 개인정보보호법을 이해할 때는 특정 정보의 명칭이나 유형에만 주목하기보다 해당 정보가 개인을 식별하거나 분석하는데 어떤 역할을 할 수 있는지를 중심으로 판단할 필요가 있다. 이러한 관점은 기술 변화 속에서도 개인정보 보호의 목적과 적용 범위를 일관되게 이해하는 출발점이 된다.

2026.02.12 17:06안정민 컬럼니스트

"개인정보 보호 체계, 사후 규제에서 사전 예방으로"

생성형 AI를 넘어 에이전틱 AI, 피지컬 AI 등으로 AI 기술이 빠르게 진화하는 가운데, 정부가 개인정보 보호 체계를 '사전 위험 예방 및 책임 강화' 중심으로 전환하겠다는 정책 방향을 제시했다. 한국정보통신진흥협회(KAIT)는 12일 오전 조선팰리스 서울 강남에서 국내 주요 AI 디지털 기업, ICT 유관기관, 학계 전문가, 정부 관계자 등 70여 명이 참석한 가운데 제12차 디지털 인사이트 포럼을 열었다. 이날 포럼은 AI 확산에 따른 개인정보 활용 증가와 보호 체계 재정립 필요성을 주요 의제로 다루며, 산업계와 정부 간 정책 방향을 공유하는 자리로 마련됐다. 최근 산업 전반에서 AI 학습과 자동화된 의사결정, 개인화 서비스 구현을 위해 대규모 개인정보 활용이 일상화되고 있다. 플랫폼, 금융, 의료, 모빌리티, 행정 등 다양한 분야에서 AI 도입이 확산되면서 산업 특성을 반영한 개인정보 보호 체계 고도화가 핵심 정책 과제로 부상하고 있다. 특히 의료 AI의 민감정보 처리 문제, 금융 AI의 자동화 의사결정 책임성, 모빌리티 분야의 위치정보와 영상데이터 활용 등 영역별 쟁점이 다양화되면서 획일적 규제에서 벗어난 정교한 정책 접근이 요구되고 있다. 최재유 포럼 공동의장은 “AI 시대에는 인공지능 기술 이외에도 데이터를 어떻게 책임 있게 축적, 활용하느냐가 기업 경쟁력을 좌우하게 될 것”이라며 “오픈클로, 몰트북과 같은 사례가 보여주듯이 기술 혁신과 함께 데이터 책임성과 신뢰 확보가 병행될 때 지속 가능한 성장과 발전이 가능하다”고 강조했다. 기조강연에 나선 송경희 개인정보보호위원회 송경희 위원장은 'AI 시대, 개인정보 보호 체계 대전환'을 주제로 정책 방향을 설명했다. 송 위원장은 “AI는 방대한 개인정보 활용을 전제로 작동하는 기술로, 개인정보 보호는 AI 신뢰성과 사회적 수용성을 좌우하는 핵심 요소”라며 “사후 규제 중심에서 벗어나, 사전에 위험을 막고 책임을 강화하는 방향으로 개인정보 보호 체계를 전환해야 한다”고 말했다. 이어, “AI 학습과 활용 과정의 개인정보 보호를 위해 제도적 기술적 지원을 강화하고, 기업 책임성 제고를 통해 신뢰 기반 AI 생태계를 조성하겠다”고 밝혔다. 한편, 이날 포럼에서는 회원사인 진인프라 최춘식 전무가 자사의 AI, 클라우드, 데이터센터 등 디지털 인프라 분야 사업 현황을 소개했다. 최 전무는 “진인프라는 20여 년간 공공, 금융, 민간 분야에서 IT 인프라 구축과 운영을 수행해왔으며, 클라우드와 AI 인프라를 결합한 디지털 전환(DX) 사업을 확대하고 있다”고 했다.

2026.02.12 10:05박수형 기자

그렙, 정보보호 관리체계 인증 획득

온라인 테스팅 플랫폼 기업 그렙(대표 임성수)이 정보보호 관리체계(ISMS) 인증을 획득했다고 11일 밝혔다. 과학기술정보통신부가 고시하고, 한국인터넷진흥원(KISA)이 운영하는 ISMS는 기업이 주요 정보자산을 보호하기 위해 수립·관리·운영하는 정보보호 관리체계가 국가 기준에 적합한지를 심사하는 제도다. 정보보호 관리체계 수립·운영(16개), 보호대책 요구사항(64개) 등 총 80개의 심사 항목을 모두 충족해야 받을 수 있는 국내 최고 수준의 정보보호 인증으로 평가받는다. 그렙은 이번 인증을 통해 온라인 테스팅 플랫폼으로서 데이터 관리 역량과 개인정보 보호 체계의 우수성을 객관적으로 증명했다. 특히, 온라인 시험 감독 솔루션 '모니토'와 같이 높은 보안 수준이 요구되는 환경에서 더욱 안전하고 공정한 테스팅 환경을 제공할 수 있게 됐다. 이와 함께 그렙은 개발자 성장 플랫폼 '프로그래머스'를 통해 축적한 교육 및 평가 데이터를 바탕으로 기업별 맞춤형 인재 육성 솔루션을 제공 중이다. 국내 다수 기업의 기술 채용 평가와 디지털 전환(DX) 교육을 전담해 왔다. 코딩 역량 인증 자격인 PCCP와 PCCE는 현대자동차, LG CNS, CJ올리브네트웍스 등 주요 대기업을 비롯해 한국은행 등 금융권과 공공기관에서 임직원 역량 평가 및 채용 지표로 채택되며 전문성을 인정받고 있다. 임성수 그렙 대표는 “이번 ISMS-P 인증은 그렙의 정보보호 관리 체계와 개인정보 보호 역량을 국가 기관으로부터 객관적으로 검증받은 결과”라며 “그렙은 앞으로도 철저한 보안과 개인정보 보호를 바탕으로 신뢰할 수 있는 AI 서비스를 제공하며 플랫폼 경쟁력을 높여나가겠다”고 밝혔다. 이어 “강화된 보안 신뢰성은 해외 파트너사 및 고객들과의 협업 과정에서 그렙의 글로벌 경쟁력을 뒷받침하는 토대가 될 것”이라며, “글로벌 컴플라이언스 기준을 준수하며 국내외 시장 점유율 확대를 위한 노력을 지속하겠다”고 말했다.

2026.02.11 08:48백봉삼 기자

[쿠팡 사태④] 3367만건 유출·1억4천만건 조회…유출-조회 차이는

쿠팡 침해사고 조사 결과에서 3367만여 건 '유출', 1억4천만여 회 '조회'라는 두 가지 수치가 함께 제시되면서 그 차이를 놓고 혼란이 일었다. 조사단은 “조회 역시 유출로 본다”는 입장을 분명히 하면서, 추후 개인정보보호위원회가 개별 정보를 모두 분리해서 유출 규모를 발표할 예정이라고 했다. 10일 과학기술정보통신부는 정부서울청사에서 민관합동조사단 조사 결과를 발표하며 "조회하는 순간 개인정보는 이미 통제권 밖으로 나가기 때문에 조회는 곧 유출"이라고 명확히 했다. 그럼에도 불구하고 조사 결과에는 '유출'과 '조회'가 나뉘어 제시됐다. 조사단에 따르면 3367만여 건 유출로 명시된 수치는 '내정보 수정' 페이지에서 확인된 성명과 이메일을 기준으로 산정됐다. 해당 페이지는 한 번 접속할 때마다 한 명의 성명과 이메일이 명확하게 노출되며, 접속기록(로그) 상에서도 개별 계정을 식별할 수 있어 정확한 건수 산정이 가능했다는 설명이다. 반면 배송지 목록 페이지의 경우 상황이 다르다. 이 페이지에는 계정 소유자 본인 외에도 가족·지인 등 제3자의 성명, 전화번호, 주소, 마스킹된 공동현관 비밀번호 정보가 함께 포함돼 있다. 한 계정당 최대 20개까지 배송지를 등록할 수 있다. 조사단은 이 페이지가 1억4800만 회 이상 조회된 사실을 확인했지만, 페이지 안에 포함된 개인정보의 정확한 개별 건수를 현 단계에서 산정하기는 어렵다고 말했다. 이에 따라 조사단은 해당 페이지에 몇 번 접근했는지를 기준으로 조회 횟수를 발표했고, 이 조회 역시 개인정보 유출로 본다고 설명했다. 조사단 측은 “배송지 목록 페이지는 한 번 조회될 때마다 유출되는 개인정보의 개수가 사람마다 다르다”며 “이 안에 들어 있는 개별 정보를 모두 분리해 산정하는 작업은 개인정보보호위원회에서 최종적으로 판단할 사안”이라고 말했다. 조사단은 “조회라고 해서 책임이 가벼워지거나, 유출만 처벌 대상이 되는 것은 아니다”라며 “정보통신망법상으로는 조회와 유출을 모두 유출로 보고 있다”고 강조했다. 다만 개인정보보호법에 따른 유출 규모 확정과 과징금 산정은 개인정보보호위원회 소관이라고 덧붙였다. 조사단은 “조회·유출이라는 표현은 기술적 사실을 설명하기 위한 구분일 뿐, 법적 책임을 나누기 위한 구분은 아니다”라며 “최종적인 개인정보 유출 규모는 개인정보보호위원회의 판단을 기다려야 한다”고 밝혔다.

2026.02.10 16:50안희정 기자

최수연 네이버, 지식인 오류 사과..."개보위 선제적 신고"

최수연 네이버 대표가 인물정보 서비스 개편 과정에서 일부 이용자의 지식iN 과거 답변 이력이 노출된 것과 관련해 공식 사과했다. 최 대표는 6일 네이버 공지사항을 통해 “지난 2월 3~4일 양일간 지식iN 서비스 업데이트 이후 인물정보 등록 이용자의 과거 지식iN 답변 내역을 확인할 수 있는 링크가 인물정보 검색 결과에 공개됐다”며 “네이버 이용자 여러분께 심려를 끼쳐드린 점에 대해 진심으로 사과드린다”고 밝혔다. 최 대표는 네이버가 해당 상황을 인지한 직후인 4일 오후 10시쯤 관련 조치를 완료했으며, 현재 인물정보 서비스에서는 지식iN 프로필 링크가 제공되지 않고 있다고 설명했다. 해당 업데이트는 원래 상태로 롤백됐고, 동일한 문제가 향후 재발하지 않을 것으로 보고 있다는 입장이다. 최 대표는 “인물정보와 지식iN 서비스뿐 아니라 네이버 서비스 전반에서 유사한 문제가 다시는 발생하지 않도록 관련 설정과 프로세스에 대해 강도 높은 점검을 진행할 예정”이라고 밝혔다. 이번 사안과 관련해 최 대표는 개인정보보호위원회에 선제적으로 신고를 진행했으며, 향후 이뤄질 개인정보보호위원회의 조사에도 성실히 협조하겠다고 덧붙였다. 아울러 “이번 일로 피해를 입은 이용자들이 추가적인 어려움이나 곤란을 겪지 않도록 피해 확산 및 재발 방지에 책임감 있는 자세로 임하겠다”고 강조했다. 최 대표는 “다시 한 번 네이버 서비스를 이용해주시는 분들께 불편과 심려를 끼쳐드린 점 깊이 사과드리며, 신뢰받는 서비스를 제공하기 위해 최선을 다하겠다”고 말했다.

2026.02.06 19:33안희정 기자

[법과 상식 사이] 전화번호를 알려줘도 될까

지인이 누군가의 전화번호를 물어보는 순간 우리는 종종 망설이게 된다. “이거 알려주면 개인정보보호법 위반 아닐까?” 개인정보 보호에 대한 사회적 경각심이 높아진 것은 분명 바람직한 변화다. 그러나 그 영향으로 법이 요구하지 않는 상황에서도 스스로를 과도하게 제한하는 장면이 적지 않다. 문제는 많은 사람들이 무엇이 실제로 금지되고 무엇이 허용되는지를 정확히 알지 못한다는 데 있다. 개인정보보호법은 몇 가지 관점만 이해해도 생각보다 훨씬 명확하게 보인다. 먼저 짚어야 할 점은, 개인정보보호법이 '개인정보처리자'를 중심으로 작동하는 법이라는 사실이다. 이 법은 모든 사람의 일상적 행위를 규제하기 위한 법이 아니라 개인정보를 업무 목적 아래 체계적으로 처리하는 주체에게 법적 의무를 부과한다. 예를 들어, 학원 원장이 수강생의 이름과 연락처 명단을 관리하거나, 온라인 쇼핑몰 운영자가 고객의 주소와 전화번호를 저장해 배송에 활용하는 경우가 그렇다. 이들은 개인정보를 특정한 목적에 따라 지속적· 체계적으로 처리한다는 점에서 전형적인 개인정보처리자에 해당한다. 이러한 법 구조를 전제로 보면 일반적으로 개인이 가족이나 지인과 사적으로 연락처를 교환하거나 휴대전화에 저장하는 정도의 행위에 대해서는 개인정보처리자에게 부과되는 것과 동일한 수준의 법적 의무가 적용되지는 않는다. 개인정보보호법상 각종 의무의 핵심적 부담 주체는 원칙적으로 업무를 목적으로 개인정보파일을 운용하는 개인정보처리자로 설정되어 있고 단순한 사적 주소록 관리는 보통 그 요건에 해당하지 않기 때문이다. 그렇다고 곧바로 “법의 규율 대상이 아니다”라고 단정해서는 안된다. 개인정보보호법은 기본적으로 개인정보처리자를 규율하지만 업무상 알게 된 개인정보를 누설하거나 부당하게 이용하는 행위는 개인정보처리자가 아니더라도 처벌 대상이 될 수 있다. 또한 법에서 말하는 개인정보의 '처리'에는 정보를 수집하거나 이용하는 것뿐 아니라 저장해 두는 행위까지 포함되므로 연락처를 휴대전화에 저장하는 행위 역시 형식적으로는 개인정보 처리에 해당할 수 있다. 물론 이러한 사적 저장이나 이용이 곧바로 위법이나 처벌로 이어지는 것은 아니다. 다만 해당 전화번호가 업무 수행 과정에서 취득되었거나 업무 목적에 따라 이용된 경우에는 개인정보처리자 여부와 관계없이 법 위반 여부를 판단해야 하는 사안이 될 수도 있다. 한편 동창회나 동호회처럼 친목 도모를 목적으로 단체를 운영하며 개인정보를 처리하는 경우, 법은 이를 전형적인 영리·업무 목적의 개인정보 처리와는 구별해 일부 규정의 적용을 배제하고 있다. 이는 해당 주체가 개인정보처리자에 해당하지 않아서라기보다는 처리 목적과 그로 인한 침해 위험의 정도를 고려해 법적 의무의 범위를 조정한 결과로 이해하는 것이 정확하다. 그래서 전화번호를 알려줘도 될까? 그렇다면 다시 처음의 질문으로 돌아가 보자. 가장 현실적이고 안전한 답은 의외로 단순하다. “번호를 전달해도 되는지 먼저 물어볼게요.” 이 한 문장은 상대방의 자기결정권을 존중하면서 불필요한 오해와 법적 위험을 동시에 줄여 준다. 개인정보보호법은 정보를 가진 사람을 통제하려는 법이 아니라 그 정보의 당사자인 정보주체에게 통제권을 보장하려는 법이다. 결국 중요한 것은 전화번호를 알려줘도 되느냐가 아니라 그 정보에 대한 결정권이 누구에게 있는지를 인식하고 존중하는 태도다. 그 점만 분명히 인식한다면 우리는 법을 과도하게 두려워할 필요도 가볍게 여길 필요도 없다.

2026.02.06 15:03안정민 컬럼니스트

[유미's 픽] 공공 AX 확대 속 AI 프라이버시 정책 '운영 단계'로…업계 부담 커진다

국내 인공지능(AI)·소프트웨어 업계가 개인정보 보호 대응을 기술 개발의 부수 요소가 아닌 핵심 경쟁력으로 재정립해야 할 것으로 보인다. 생성형 AI를 넘어 에이전트 AI, 피지컬 AI 등 차세대 기술이 서비스 현장에 빠르게 적용되면서 개인정보 리스크가 단순 유출 방지를 넘어 서비스 구조 전반의 신뢰 문제로 확산되자 정부가 정책 정비에 나섰기 때문이다. 4일 개인정보보호위원회가 발표한 '2026 AI 프라이버시 민관 정책협의회 운영 방향'에 따르면, 정부는 AI 확산으로 개인정보 리스크가 기존 유출·노출 중심에서 민감정보 추론, 딥페이크 악용, 프로파일링 등 새로운 형태로 확대되고 있다고 진단했다. 정책 논의의 초점도 모델 학습 단계에서 벗어나 에이전트 AI·피지컬 AI 등 서비스 운영 단계에서 발생할 수 있는 위험 대응으로 전환했다. 이에 맞춰 협의회는 데이터 처리기준, 리스크 관리, 정보주체 권리 등 3개 분과 체계로 운영한다. 또 '에이전트 AI 개인정보 처리기준' 마련(6월)과 AI 프라이버시 레드팀 방법론 연구를 추진할 계획이다. 여기에 자동화된 결정 대응 등 이용자 권리 보장 방안과 올해 3월께 'AI 이용 개인정보 보호수칙'도 제시할 예정이다. 향후에는 AI 정책 수립 과정에서 민관 의견을 폭넓게 수렴하고 부처 간 정책 정합성을 확보하는 자문기구로 기능을 확대한다는 방침이다.특히 이번에 주목할 점은 협의회 논의 과제에 'AI 프라이버시 레드티밍(Red Teaming)' 방법론이 포함됐다는 점이다. 레드티밍은 공격자 관점에서 시스템의 취약점을 의도적으로 점검해 보안 허점을 찾아내는 방식으로, AI 서비스가 실제 운영 과정에서 맞닥뜨릴 수 있는 프라이버시 위협을 사전에 검증하는 절차로 활용될 수 있다. 이를 통해 기업들의 개인정보 보호 대응이 기존의 사후적·수동적 점검에서 벗어나 보다 공세적이고 예방적인 리스크 관리 체계로 전환될 가능성이 클 것으로 예상된다.셀렉트스타 관계자는 "매우 빠른 AI 발전이 실질적 확산으로 이어지기 위해서는 관련 규제 환경의 신속한 맞춤 변화가 중요하다"며 "정부가 민관 정책 협의회 등을 통해 민간과 적극적으로 소통해 AI 업계의 규제 불확실성을 최소화할 것으로 기대된다"고 말했다. 개보위의 이 같은 움직임에 AI 업계도 예의주시하고 있다. 정부의 규제 논의가 학습 데이터 적법성 중심에서 서비스 배포 이후의 운영 책임으로 이동하고 있다는 점에서 기업들은 향후 AI 서비스 전 과정에 대한 관리·감독 요구가 강화될 가능성에 주목하고 있다. 이 같은 변화는 에이전트 AI 확산과 맞물리면서 더욱 뚜렷해질 전망이다. 에이전트 AI는 사용자 대신 업무를 수행하며 다양한 데이터에 접근하고 서비스 간 상호작용을 통해 결과를 만들어내는 구조인 만큼, 개인정보 처리 책임의 경계가 더욱 복잡해질 수밖에 없다. 이에 따라 기업들은 서비스 설계 단계부터 데이터 처리 흐름과 사후 통제 체계를 함께 마련해야 하는 과제를 안게 됐다. 업계 관계자는 "그동안 기업들이 학습 데이터 적법성에 집중했다면, 앞으로는 서비스 운영 과정에서 AI가 어떤 데이터에 접근하고 어떤 결정을 내리는지가 규제의 핵심이 될 것"이라며 "에이전트 AI 확산은 프라이버시 컴플라이언스를 한 단계 끌어올리는 계기가 될 수 있다"고 말했다. 이러한 흐름은 민간 서비스뿐 아니라 공공 부문 AI 전환 확대와 맞물리며 업계 부담을 더욱 키우고 있다. 정부는 공공기관이 AI 신서비스를 기획하는 과정에서 개인정보 보호법 저촉 여부가 불확실한 경우가 많다는 점을 감안해 사전적정성 검토와 규제 샌드박스 지원을 병행할 계획이다. 정부의 공공 AX 예산은 2025년 5천억원에서 2026년 2조4천억원으로 5배 증가하며 33개 부처에서 206개 사업이 추진될 예정이다. 이에 공공 시장을 겨냥하는 소프트웨어 기업들 사이에서는 초기 설계 단계부터 프라이버시 보호 체계를 갖추지 않으면 사업 참여 자체가 어려워질 수 있다는 전망도 나온다. 업계 관계자는 "공공 AX 사업이 급증하면서 AI 적용은 필수가 됐지만, 개인정보 이슈가 정리되지 않으면 사업 추진 속도가 늦어질 수밖에 없다"며 "기업 입장에서는 보호설계(PbD)를 선제적으로 반영하는 것이 경쟁력이 될 것"이라고 말했다. 글로벌 규범 역시 에이전트 AI를 중심으로 빠르게 정비되는 추세다. 미국 NIST 산하 AI 표준 및 혁신센터(CAISI)는 AI 에이전트의 데이터 접근권한 최소화와 사후 통제권 확보를 위한 논의에 착수했다. 영국 정보위원회(ICO)는 에이전트 AI 발전 단계별 시나리오를 제시하며 규제 고도화에 나서고 있다. 싱가포르는 '에이전틱 AI 정부 프레임워크'를 마련했다. 이처럼 국제적으로 샌드박스형 사전 검증과 인간 개입 원칙이 핵심 규범으로 부상하면서 국내 기업들도 글로벌 기준에 맞춘 대응 전략이 불가피해지고 있다. 업계에선 이번 발표를 계기로 AI 서비스 기업들의 프라이버시 대응 부담이 운영 단계까지 확대될 것으로 보고 있다. 에이전트 AI 확산에 따라 관련 리스크 관리 체계 마련이 주요 과제로 떠오르고 있다는 분석이다. 업계 전문가는 "AI 경쟁이 고도화될수록 기업들은 성능뿐 아니라 '신뢰 가능한 운영 체계'를 갖춘 곳이 시장에서 살아남게 될 것"이라며 "프라이버시 대응 역량이 향후 국내외 사업 확장의 결정적 변수로 작용할 가능성이 높다"고 말했다.

2026.02.04 09:54장유미 기자

KISIA, 개인정보보호 관련 기업 실무자 대상 교육 개강

한국정보보호산업협회(KISIA)가 직업능력개발훈련 사업의 일환으로 기업 재직자를 대상으로 한 개인정보보호 관련 맞춤형 실무 교육을 개강한다. KISIA는 2월부터 개인정보보호 국가인적자원개발컨소시엄 재직자 역량향상 교육을 개강한다고 27일 밝혔다. 국가인적자원개발컨소시엄(컨소시엄)은 고용노동부 및 산업인력공단이 주최하는 교육 사업으로, 공동훈련센터로 지정된 훈련기관이 기업과 협약을 맺고 재직자들을 위한 맞춤형 교육을 제공하는 직업능력개발훈련 사업이다. KISIA는 개인정보보호위원회를 소관부처로 둔 국내 유일 개인정보보호 분야 공동훈련센터로 2022년부터 컨소시엄 사업을 운영하고 있다. 지난해 KISIA는 컨소시엄 교육으로 총892명의 수료생을 배출하며, 목표 인원(668명) 대비 130% 달성이라는 성과를 이뤄냈다. 특히 요구·수요조사를 반영해 개인정보보호 기초부터 실무까지 아우르는 현장 맞춤형 교육 과정을 운영함으로써 참여 기업과 교육생으로부터 높은 만족도를 얻은 바 있다. 올해는 12개 과정을 총 33회 운영해 740명의 교육생을 양성할 계획이다. 교육과정은 개인정보보호 기초부터 실무 과정을 다룬다. AI기본법, 클라우드, 영상정보, 정보보호 인증 등 신기술 대응 특화 과정까지 현장 수요에 맞춰 체계적인 교육과정을 정했다. 특히 4개의 신기술 대응 과정은 실제 기업들이 직면하고 있는 개인정보 처리·활용 리스크를 중심으로 설계되어 업무 현장에서 발생하는 개인정보 활용 사례를 바탕으로 실질적인 대응 방안을 학습할 수 있다. 현재 컨소시엄 사무국은 2026년 2월 교육훈련 신청을 접수 중이며 컨소시엄 협약기업으로 등록된 기업들은 재직자 인력 교육 기회를 상시 활용할 수 있다. 협약기업 중 중소기업에 재직 중인 교육생의 교육비는 전액 무료이며 대규모기업 소속 교육생은 교육비의 20%만 자부담하면 수강할 수 있다. 조영철 KISIA 회장은 "최근 AI 활용이 전 산업군으로 확산됨에 따라 개인정보보호 정책방향 또한 규제 대응 중심에서 사전 예방과 관리체계 강화로 변화하고 있는데 이러한 변화의 주역은 단연 전문인력"이라며 "KISIA는 교육원을 중심으로 개인정보보호 담당자가 현장에서 업무에 적용할 수 있는 전문 역량을 갖추도록 지원하는 교육 허브로서 견고히 자리매김하겠다"고 밝혔다.

2026.01.27 18:09김기찬 기자

[법과 상식 사이] 왜 미국에는 단일 프라이버시법이 없을까

최근 대규모 개인정보 유출 사건이 잇따르면서 각국의 프라이버시 법제에 대한 관심이 다시 높아지고 있다. 이러한 논의를 이해하기 위해서는 먼저 EU와 미국이 채택하고 있는 프라이버시 규제의 제도적 차이를 살펴볼 필요가 있다. EU는 일반 정보보호 규정(GDPR)이란 단일 규범을 통해 높은 수준의 개인정보 보호를 요구하는 대신, EU 전역에 공통적으로 적용되는 기준을 제시함으로써 기업들에게 명확한 규제 대응의 틀을 제공한다. 반면 미국은 연방 차원의 포괄적 프라이버시법 없이 주(州) 중심의 분산적 규제 구조를 유지하고 있어 기업들은 주마다 서로 다른 동의 방식과 고지 의무를 충족시켜야 한다. 이러한 규제의 파편화는 막대한 준수 비용과 법적 불확실성을 야기해 왔으며, 그 결과 연방 차원의 통합 프라이버시법 제정에 대한 기대도 오랫동안 제기되어 왔다. 그럼에도 미국은 왜 유럽의 GDPR과 같은 단일한 체계로 나아가지 못한 채 주와 연방의 권한 다툼 속에 머물러 있는 것일까. 문제의 본질은 헌법이 예정한 연방과 주 간의 권한 배분 구조에 있다 연방 정부가 프라이버시 영역에서 입법 권한을 주장할 수 있는 핵심 근거는 미국 헌법 제1조 제8절 제3항 통상조항(Commerce Clause)이다. 통상조항은 연방 의회에 외국과의 통상, 주 간 통상, 그리고 인디언 부족과의 통상을 규제할 권한을 부여한다. 초기에는 이 조항이 주로 물리적 상품의 이동과 거래를 규율하는 근거로 이해됐으나, 현재는 연방대법원의 판례를 통해 그 범위가 크게 확장되어 교통·통신·금융·노동 등 주 간 경제에 실질적인 영향을 미치는 모든 활동을 포괄하는 개념으로 해석된다. 전화와 인터넷, 디지털플랫폼처럼 본질적으로 주 경계를 넘나드는 활동은 오늘날 통상조항 적용의 전형적인 대상이며 이를 통해 미국 연방 정부는 경제와 사회 전반에 걸친 광범위한 규제를 정당화해 왔다. 이러한 법리적 확장은 개인정보 보호 영역에도 그대로 적용된다. 연방 프라이버시법 초안들(APRA, ADPPA 등)은 개인정보의 수집·이용·이전을 주 간 상거래에 직접적이고 지속적인 영향을 미치는 경제 활동으로 규정한다. 이에 따라, 주별로 상이한 의무가 기업의 데이터 흐름과 비즈니스모델에 중첩 적용되면서 연방 차원의 개입이 정당화된다는 논리가 형성된다. 그러나 프라이버시 규제는 통상 규제에 그치지 않고 소비자 보호와 기본권 보장이라는 전통적인 주 정부의 입법권 및 경찰권과 충돌하게 되며, 이러한 헌법적 긴장이 오늘날 미국에서 연방 프라이버시법이 반복적으로 좌초되는 구조적 배경을 형성하고 있다. 연방의 선점원칙과 주 정부 입법권의 충돌 미국 헌법은 연방법과 주법이 충돌할 경우 연방법이 우선 적용된다는 선점원칙(preemption)을 통해 연방 권한의 효력을 확보하는 한편, 헌법에 명시되지 않은 권한은 헌법 수정조항 제10조에 따라 주에 유보함으로써 연방과 주의 권한 경계를 설정하고 있다. 다시 말해, 연방법은 주법에 우선하지만 연방에 위임되지 않은 영역에서는 주가 독자적으로 규범을 설계할 수 있다. 문제는 개인정보 보호가 오랫동안 소비자 보호, 불법행위 책임, 사생활 보호와 같은 주법 영역에서 발전해 왔다는 점이다. 이로 인해, 연방 프라이버시법은 주법에 앞사 적용돼야 실효성을 갖지만 연방이 이를 일괄적으로 규율하려 할 경우 주 정부의 입법권을 침해한다는 강한 반발에 직면하게 된다. 실제로 APRA와 ADPPA를 포함한 주요 연방 프라이버시법 초안들은 모두 주 프라이버시법을 일정 범위에서 배제하는 선점 조항을 담고 있었고 바로 이 지점에서 갈등이 본격화됐다. 캘리포니아, 콜로라도, 버지니아 등 이미 포괄적 프라이버시법을 시행 중인 주들은 연방 법이 최소 기준을 제시하는데 그치지 않고, 주가 더 강한 보호 규제를 도입하는 것까지 제한하는 기준으로 작동할 가능성을 우려한다. 이들 주의 입장에서 선점 조항은 규제 일관성을 확보하기 위한 장치라기보다 그동안 축적해 온 보호 체계를 연방 입법으로 약화시킬 수 있는 수단으로 받아들여진다. 이로 인해, 연방 프라이버시 입법은 단순한 정책 조정의 문제가 아니라, 연방과 주 가운데 누가 프라이버시 규범을 설계할 권한을 가지는가라는 연방주의(federalism) 차원의 충돌로 전환된다. 결국 현재의 교착상태는 통상권에 기초한 연방의 선점 논리와 수정조항 제10조에 기초한 주의 입법권이 정면으로 맞부딪히는 헌법 구조의 산물이다. 이러한 구조적 충돌이 해소되지 않는 한 연방 차원의 포괄적 프라이버시법은 반복적으로 같은 지점에서 멈출 수밖에 없다. 기업의 현실적 대안: 연방 입법이 아닌 주 기준을 사실상 표준으로 삼아라 이러한 헌법 구조를 고려할 때 연방 차원의 통합 프라이버시법 제정을 기다리는 전략은 현실적이지 않다. 주별로 파편화된 규제 환경이 상당 기간 지속될 가능성이 큰 만큼 현재 미국 내에서 사실상의 기준으로 기능하고 있는 개정된 캘리포니아 소비자 프라이버시법(CCPA/CPRA)의 보호 수준을 내부 공통 기준으로 설정하고 개인정보의 수집과 활용을 최소화하는 방향으로 대응하는 것이 합리적이다. 다수의 주가 캘리포니아 모델을 벤치마킹하고 있다는 점에서 CPRA에 기반한 컴플라이언스 체계는 향후 타 주 법률에도 비교적 유연하게 대응할 수 있는 실질적인 기반이 된다. 불확실한 연방 입법의 향방에 기대기보다 생체정보·위치정보·아동 데이터 등 특정 영역을 중심으로 강화되고 있는 주 단위 규제와 집행에 선제적으로 대비하는 것이 현 시점에서 기업이 선택할 수 있는 가장 현실적인 대응 전략이다.

2026.01.23 14:24안정민 컬럼니스트

SAP 데이터 비식별화 수요 급증…에피유즈랩스 '데이터 프라이버시 스위트' 주목

기업 데이터 활용이 인공지능(AI)·분석·자동화 영역으로 빠르게 확장되면서 SAP 시스템에 저장된 민감 데이터를 안전하게 보호하면서도 실무에 활용할 수 있는 데이터 비식별화 기술 수요가 커지고 있다. 에피유즈랩스는 SAP 환경에 최적화한 프라이버시 및 데이터 비식별화 솔루션인 'Data Privacy Suite'를 통해 운영·비운영 시스템 전반에서 글로벌 개인정보보호 규제 준수와 데이터 활용을 지원한다고 16일 밝혔다. SAP 시스템은 재무·인사·급여·고객·자재·거래 정보 등 기업 핵심 데이터가 집약된 플랫폼으로, 민감 정보가 대규모로 축적돼있다. 동시에 AI 학습, 데이터 분석, 테스트·개발 환경, 외부 협력사와의 공동 프로젝트 등 SAP 데이터를 활용해야 하는 요구도 지속 확대되는 추세다. 다만 SAP 데이터는 구조적 복잡성이 높아 단순 마스킹이나 필드 치환 방식만으로는 데이터 정합성이 훼손돼 테스트나 분석 환경에서 활용이 어려워질 수 있다. 이에 SAP 데이터 구조와 비즈니스 로직을 이해한 전문적인 비식별화 접근이 필요하다는 인식이 확산되고 있다. 에피유즈랩스가 제공하는 Data Privacy Suite는 SAP 환경에 특화된 프라이버시 및 데이터 비식별화 솔루션으로, 유럽연합(EU) 개인정보보호법 GDPR과 국내 개인정보보호법 등 글로벌 규제 대응을 지원하도록 설계됐다. 비운영 시스템에서는 SAP 테이블 구조와 비즈니스 로직을 고려한 정교한 비식별화·익명화 처리를 통해 데이터 프라이버시 위험 없이 정확한 테스트 수행을 지원한다. 인사·급여·재무 등 민감 영역에 대한 필드 단위 마스킹과 규칙 기반 처리, 운영 시스템에서 비운영 시스템으로 데이터 복제 시 전송 과정에서 개인정보를 스크램블링하는 보호 기능도 제공한다. 또 AI 및 분석 활용을 위해 식별 정보는 제거하면서 데이터 활용성은 유지할 수 있도록 한다. 운영 시스템에서는 SAP 환경 전반을 즉시 검색해 특정 주체의 데이터 흔적을 식별·조회·제공할 수 있도록 지원하며 참조 무결성을 유지하면서 필드 데이터를 신속하고 안전하게 삭제하는 기능도 제공한다. 삭제 대상 데이터 주체를 유연한 규칙 기반으로 사전에 식별하는 기능도 포함된다. 에피유즈랩스는 글로벌 시장에서 SAP 데이터 비식별화 전략이 규제 대응을 넘어 데이터 활용 기반으로 확장되고 있다고 강조했다. 실제 영국 통신사 BT는 대규모 SAP 테스트 데이터 관리 과제에 대응하기 위해 에피유즈랩스의 Data Sync Manager Suite를 도입, 운영 데이터 중 필요한 데이터만 선별 복제하고 민감 정보에 데이터 스크램블링을 적용해 GDPR 준수와 함께 테스트 데이터 정확성을 높였다. 기존 한 달이 걸리던 SAP 데이터 리프레시 작업을 최대 72시간 내로 단축하며 효율성과 통제 수준을 개선했다. 네덜란드 금융기관 라보뱅크는 은행 당국(DNB) 규제에 따라 운영 환경 외 모든 SAP 데이터를 스크램블링해야 하는 요구에 직면해 Data Sync Manager를 도입했다. 이를 통해 클라이언트 리프레시 자동화와 비운영 환경 SAP 데이터 스크램블링을 구현했으며 운영 문서를 94페이지에서 4페이지로 축소하고 디스크 공간 5TB 절감, 데이터 리프레시 시간 10시간 단축 성과를 거뒀다. 이 밖에도 네슬레는 GDPR 시행 이후 유럽 내 SAP 시스템에 저장된 인사·고객 데이터를 안전하게 활용하기 위해 Data Privacy Suite를 도입해 개인정보 비식별화·가명 처리를 적용하고 규제 요건을 충족하면서도 테스트·분석 환경에서 SAP 데이터를 지속 활용할 수 있는 체계를 마련했다. 쉘은 비운영 시스템 데이터를 스크램블링하는 방식으로 공급업체·비즈니스 파트너·직원 데이터를 비식별화해 민감 정보 노출 없이 SAP 테스트 및 시스템 최적화를 수행했다. 기존 6주 소요되던 데이터 스크램블링 작업을 전체 리프레시와 결합해 5일 만에 완료했다. 프랑스 에너지 기업 엔지는 80TB 규모 SAP 시스템 내 개인정보를 식별·분석한 뒤 운영 데이터는 제거하고 비운영 데이터는 비식별화하는 전략을 수립해 Data Privacy Suite를 도입했다. 이를 통해 개인정보 감독기구(CNIL) 재감사를 안정적으로 통과했다. 이같은 사례는 SAP 데이터 비식별화가 단순 보안 조치를 넘어 기업·공공기관의 데이터 활용 전략을 뒷받침하는 핵심 기반으로 진화하고 있음을 보여준다. 에피유즈랩스는 SAP S/4HANA 전환, 클라우드 이전, AI 기반 데이터 분석·자동화, 외부 파트너와의 공동 프로젝트 등에서 보호되지 않은 SAP 데이터는 자산이 아닌 사업 리스크가 될 수 있다는 점도 지적했다. 이런 과제를 데이터 프라이버시 스위트를 앞세워 해결해 나간다는 목표다. 에피유즈랩스 제임스 왓슨 데이터 프라이버시·보안 글로벌 총괄은 "SAP 데이터는 기업과 공공기관의 가장 중요한 자산이지만, 동시에 가장 엄격한 규제를 받는 정보이기도 하다"며 "Data Privacy Suite는 글로벌 기업과 공공기관의 실제 적용 사례를 통해 검증된 솔루션으로, 데이터를 단순히 숨기는 것이 아니라 안전하고 책임감 있게 활용할 수 있도록 지원할 것"이라고 밝혔다.

2026.01.16 16:59한정호 기자

방은주 지디넷 부장, 서울시 정보보호 유공상 수상

방은주 지디넷코리아 부장이 서울시 정보보안 및 개인정보 보호분야 유공시민 시장표창을 수상했다. 서울시 정보보안과는 15일 서울시 서소문청사 1동에서 '정보보안 및 개인정보 보호분야 2025년도 유공시민 시장표창 수여식'을 개최했다. 이날 서울시는 정보보호 인식 제고 및 사회 안전망 구축에 기여한 9인을 선정해 시장 표창을 수여했다. 정보보호 분야에서 유공자로 채택된 인물은 ▲방은주 지디넷코리아 부장 ▲박종진 전자신문 기자 ▲이영민 이데일리 기자 ▲정은아 수산아이앤티 대표 ▲조영철 한국정보보호산업협회(KISIA) 회장 ▲설동규 파이오링크 대리 등 6인이 표창을 받았다. 개인정보 보호 분야에서는 ▲김범수 연세대 정보대학원 교수 ▲박윤식 한국인터넷진흥원(KISA) 연구위원 ▲이재준 엠엘소프트 이사 등 3인이 수상했다. 먼저 언론 분야 수상자 중에서 방은주 지디넷코리아 부장(팀장)은 서울시에서 운영하는 전국정보보호정책협의회와 협력을 통해 '대한민국 사이버보안 컨퍼런스'를 개최하는 등 공공기관의 정보보호 발전에 기여한 공을 인정받았다. 박종진 기자는 서울시의 정보보호·인공지능(AI)·디지털 정책을 적극 보도하며 시민들의 이해를 돕는 데 기여했다. 이영민 이데일리 기자는 사이버보안, 개인정보보호 정책 등을 지속적으로 취재·보도해 시민 안전과 정보주권에 대한 경각심을 높인 공로를 인정받았다. 산업계 중 정은아 대표는 변화하는 사이버위협 및 IT 환경에 맞춰 글로벌 시장의 경쟁력 확보를 통해 서울시를 비롯한 공공기관의 보안 정책 발전에 기여했다. 설동규 파이오링크 대리는 서울시의 취약점 점검 및 침해사고 분석에 헌신해 정보보안 역량 강화와 안정적인 서비스를 제공했다. 조영철 회장은 KISIA 회장으로서 한국 정보보호 산업 전체의 발전과 체계를 구축한 노력을 인정받았다. 개인정보 보호 분야에서 보안 노력을 인정받은 김범수 교수는 보안·개인정보 보호의 중요성과 정책의 필요성을 학술 전 영역에서 환기한 성과를 냈다. 또 바른ICT연구소 소장을 역임하며 공공기관의 정보보호 제도와 수준 강화에 기여했다. 박윤식 KISA 연구위원은 4년간 '서울특별시 개인정보보호 심의 위원회' 활동을 했다. 이를 통해 서울시의 개인정보 보호 정책을 마련하고, 시민의 개인정보를 안전하게 활용할 수 있도록 기여했다는 공적을 남겼다. 이재준 엠엘소프트 이사는 제로트러스트(Zero Trust) 기반의 원격근무 시스템 및 네트워크 접근제어 시스템(NAC)의 고도화로 서울시의 현재 개인정보보호 및 정보보호 수준 강화에 기여했다. 특히 미래 제로트러스트 기반의 정보보호 체계 도입에도 기여한 것으로 알려졌다. 한편 이날 시상식 이후에는 간담회가 개최됐다. 수상자들이 모여 한국의 정보보호 분야 역량 강화를 위해 다방면으로 고려돼야 할 부분에 대한 논의가 이뤄졌다. 정보보호 투자 확대를 위한 방안, 서울시의 중장기적 정보보호 투자 확대 계획, 국내 정보보호 산업의 고질적인 문제점 등에 대한 주제로 논의했다. 김완집 서울시 정보보안과장은 "서울시는 전체 지자체 중 가장 먼저 과 단위의 독립된 정보보안 조직을 갖췄다"며 "이 기반에는 산학연 다방면으로 도와주신 수상자 여러분이 있기 때문이다. 앞으로도 서울시에 많은 도움과 좋은 의견 공유가 있으면 정책에 적극 반영토록 하겠다"고 밝혔다.

2026.01.15 22:20김기찬 기자

[신년 인터뷰] "AI 역기능 막는 기술 확보가 국가 경쟁력 좌우"

글로벌 경제 위기 속에서 올해 인공지능(AI) 산업은 다시 한 번 중대한 분기점에 섰다. 생성형 AI의 급격한 확산 후 이어진 성능 경쟁과 투자 열풍은 이제 '얼마나 더 큰 모델을 만들 수 있는가'라는 질문을 넘어 'AI가 실제 무엇을 할 수 있는가'라는 보다 본질적인 문제로 이동하고 있다. 지디넷코리아는 릴레이 인터뷰를 통해 각기 다른 위치에서 AI 산업을 바라보는 리더 시선을 종합해 올해 AI 산업이 어디로 향하고 있는지, 무엇을 준비해야 하는지를 짚어본다. 기술 낙관과 과도한 불안 사이에서 AI의 현실적인 진화 경로와 산업적 의미도 살펴본다. [편집자주] "인공지능(AI)이 자율주행과 로봇, 에이전트 시스템으로 진화하면 우리가 지금까지 경험하지 못한 새로운 위험을 만들어낼 수 있습니다. 기술 개발뿐 아니라 안전성과 보안, 역기능 대응을 위한 투자가 반드시 병행돼야 하는 이유입니다. 안전과 통제를 처음부터 내재화한 AI 시스템을 설계하는 것이 국가 경쟁력 측면에서도 중요합니다." 성균관대 우사이먼성일 소프트웨어학과·인공지능대학원 교수는 지디넷코리아와 만나 AI 발전과 함께 커지고 있는 기술 안전성 문제를 이렇게 진단했다. 우 교수는 AI 기술 부작용을 최소화할 방법을 연구하는 학자다. 개인정보 침해와 허위 정보 생성, 저작권 문제, 범죄 악용 등 AI 확산으로 인해 나타나는 사회 위험을 기술적으로 통제하는 데 연구 초점을 맞추고 있다. 가장 대표 연구 분야는 머신 언러닝을 이용한 개인정보 보호 기술이다. 머신 언러닝은 AI 모델이 학습한 특정 데이터를 선택적으로 삭제할 수 있도록 하는 기술이다. 보통 모델이 학습 과정에서 방대한 정보를 내부에 저장하지만, 어떤 정보가 어떤 결과에 영향을 미쳤는지 알기 어렵다. 이에 개인이 자신의 개인정보를 삭제해 달라고 요구해도 기존 AI 모델에서는 이를 정확히 반영하기가 거의 불가능하다. 머신 언러닝은 이 문제를 해결하기 위한 기술이다. 최근 그는 이를 실제 개인정보 보호에 적용할 수 있도록 기술을 업그레이드했다. 기존 방식은 특정 데이터를 삭제하기 위해 해당 데이터를 제외한 나머지 데이터로 모델을 재학습해야 했다. 이는 초거대 AI 모델 환경에서 시간·비용 측면에서 사실상 불가능하다. 그는 "기존 언러닝 기법은 연구실에선 가능했지만 실제 서비스에 적용하기에 매우 비효율적"이라고 주장했다. 우 교수 연구팀은 이 문제를 해결하기 위해 새 접근법을 제시했다. 핵심은 원본 데이터를 보관하지 않아도 모델 성능과 삭제 정확도를 동시에 유지하는 방식이다. 이에 원본 데이터를 보관하거나 재학습을 별도로 진행하지 않아도 모델 성능을 유지할 수 있다. 그는 "원본 데이터 대신 통계적으로 유사한 합성 데이터를 생성·활용해 한계를 극복했다"고 강조했다. 그는 삭제 대상 데이터가 다른 데이터와 섞여 변형된 경우에도 제거 가능하다고 설명했다. 그는 "실제 데이터는 단독 존재하지 않고 여러 문장이나 문서, 다른 데이터와 연결돼 학습된다"며 "이를 그래프 구조로 표현하면 어떤 정보가 다른 정보에 어떻게 영향 미쳤는지 추적할 수 있다"고 말했다. 그러면서 "특정 이름이나 문장, 파생 정보까지 한 번에 제거할 수 있는 이유"라고 덧붙였다. 이 연구 성과는 지난해 12월 미국 샌디에고 컨벤션 센터에서 열린 국제 AI 분야 학회 NeurIPS(Neural Information Processing systems)에 발표됐다. 이 연구는 올해 과학기술정보통신부 재원과 정보통신기획평가원(IITP) 지원으로 추진 중이다. 연구 과제명은 '개인정보보호 관련 정책 변화를 유연하게 반영하여 준수하는 AI 플랫폼 연구 및 개발'이다. 우 교수는 해당 기술이 향후 기업과 정부 시스템에도 유용할 수 있을 것으로 봤다. 그는 "기업은 고객 개인정보나 저작권 있는 문서·이미지, 책 내용을 AI 모델에 학습시키기만 하면 된다"며 "삭제 요청이 들어오면 이를 기술적으로 반영하면 된다"고 설명했다. 그는 현재 여러 국내 기업과 협력해 챗봇이나 검색, 문서 분석, 법률 AI 등 서비스에 해당 기술을 적용하는 연구를 진행하고 있다. 그는 "개인정보나 저작권 삭제 요구가 많은 분야일수록 실무적 가치가 큰 기술"이라며 "언러닝 성능을 AI 안전성 평가 지표로 활용하는 방안도 고려 중"이라고 덧붙였다. 우 교수는 이달 시행될 국내 AI기본법과 연구 성과가 깊이 연결될 것으로 내다봤다. 그는 "그는 유럽 일반정보보호규정(GDPR)처럼 한국 AI기본법은 개인의 데이터 삭제 권리를 보장하는 것이 필수일 것"이라며 "우리 방식은 이런 법적 요구를 실제 AI 모델에 기술적으로 반영할 수 있는 현실적 해법"이라고 강조했다. "딥페이크도 '문맥'으로 잡아야"...기술력 전 세계 2위 기록 우 교수는 딥페이크 감지 기술 분야에서도 활발한 연구를 이어가고 있다. 특히 최신 생성형 AI가 만들어내는 새로운 형태의 딥페이크까지 탐지하는 기술 개발에 주력하고 있다. 그는 현재 다수 딥페이크 탐지 모델 성능이 최신 AI 기술을 따라가지 못하는 점을 꼬집었다. 모델 학습에 사용된 데이터와 실제 딥페이크 확산 형태가 다르다는 점을 근본 원인으로 짚었다. 그는 "최신 AI가 만드는 딥페이크는 기존 데이터와 특성이 전혀 다르다"며 "탐지 모델 성능이 실제 환경에서 급격히 떨어질 수밖에 없다"고 말했다. 우 교수 연구팀은 이런 문제를 해결하기 위해 새 방법론을 적용한 딥페이크 탐지 모델을 제시했다. 연구팀은 'DINO'와 'CLIP-ViT' 계열 모델로 이미지와 텍스처, 의미적 패턴을 폭넓게 이해할 수 있는 모델을 구축했다. DINO는 대규모 웹 데이터 기반으로 사전 학습된 모델이다. CLIP-ViT는 텍스트와 이미지 간 의미 관계를 학습한 모델이다. 연구팀은 이를 딥페이크 탐지에 맞게 재학습해 이미지 백본으로 활용했다. 이후 이 모델 위에 딥페이크 전용 어댑터 모듈도 추가했다. 이에 모델은 영상과 이미지에 포함된 미세한 위조 흔적까지 포착할 수 있다. 우 교수는 해당 모델이 단순 이미지 분류를 넘어서 의미론적 개념을 이해하도록 설계된 것을 핵심 기능으로 제시했다. 그는 "이 모델은 특정 유형 딥페이크에 과적합 되지 않는다"며 "여러 위조 콘텐츠를 안정적으로 탐지할 수 있다"고 설명했다. 해당 연구는 지난해 과기정통부 재원으로 IITP 지원을 받아 '디지털역기능대응기술개발'사업으로 수행됐다. 사업명은 '악의적 변조 콘텐츠 대응을 위한 딥페이크 탐지 고도화, 생성 억제, 유포 방지 플랫폼 개발'이다. 해당 모델로 성과도 얻었다. 지난해 국제 컴퓨터비전 학술대회(ICCV)가 주최한 딥페이크 탐지 'SAFE 챌린지'에서 이탈리아 나폴리대 연구팀에 이어 전 세계 2위를 기록했다. 또 지난해 성균관대와 한국정보과학학회가 공동 주최한 '성균관대x한국정보과학학회 딥페이크 경진대회'에서 대상과 우수상을 각각 수상했다. 우 교수는 향후 딥페이크 연구 방향도 제시했다. 그는 "실제 환경에 가까운 조건에서 모델을 연구·평가할 것"이라며 "특히 메신저와 소셜미디어(SNS) 환경처럼 저화질·압축 영상이 많은 환경서도 안정적으로 딥페이크를 탐지할 수 있는 모델을 구축할 것"이라고 덧붙였다.

2026.01.14 15:36김미정 기자

[법과 상식 사이] 당신의 CCTV는 선을 지키고 있는가

우리나라는 전 세계적으로 손꼽히는 CCTV 고밀도 국가다. 골목길과 엘리베이터, 상가와 아파트를 가리지 않고 일상의 거의 모든 동선에 CCTV가 배치되어 있다. 유독 한국에 이처럼 많은 CCTV가 설치된 이유는 영상 녹화가 범죄 예방과 안전을 위해 필요하다는 사회적 공감대가 깊이 형성되어 있기 때문이다. 우리는 CCTV가 범죄 예방, 시설 안전, 화재 방지 등 공익적 목적을 위해 운영될 필요성과 정당성을 폭넓게 인정해 왔다. 사생활 보호라는 가치만큼이나 '공공의 안전' 역시 포기할 수 없는 가치로 받아들여졌고, 이러한 사회적 합의는 오늘날 촘촘한 CCTV 환경을 지탱하는 강력한 명분이 되었다. 이러한 합의가 우리 사회를 얼마나 더 안전하게 만들었는지에 대해서는 다양한 의견이 존재할 수 있다. 다만 CCTV가 일상의 필수 인프라로 자리 잡게 된 배경이라는 점만큼은 분명하다. 원칙적으로 개인정보보호법은 누구나 다니는 공개된 장소에 CCTV를 마음대로 설치하는 것을 금지하고 안전과 공익을 위해 꼭 필요한 6가지 경우에만 예외적으로 설치와 운영을 허용한다. 법령에 근거가 있거나 범죄 예방과 수사, 시설 안전과 화재 예방, 교통 단속이나 교통정보 제공처럼 공익적 필요가 분명한 경우에 한해 정당한 권한을 가진 자만 설치할 수 있다. 또한 촬영된 영상을 저장하지 않는 등 사생활 침해 우려가 낮은 경우에는 대통령령이 정하는 범위에서 예외가 인정된다. 즉, CCTV는 단순한 편의 장비가 아니라 명확한 필요성과 목적이 있을 때만 허용되는 장치다. 하지만 CCTV의 고수용성이 '현대판 파놉티콘'을 정당화하지는 않는다. 안전을 위해 설치한 CCTV가 적법한 파수꾼으로 남기 위해서는 법이 허용하는 '기록의 범위'와 '공개의 원칙'이라는 두 가지 선이 명확하게 지켜져야 한다. 기록의 범위: CCTV는 '눈'이어야지 '귀'가 되어서는 안 된다 영상과 음성은 법적으로 전혀 다른 위험도를 가진 정보다. CCTV 영상은 사람이 어디에 있고 무엇을 하고 있는지를 보여주는 객관적 정보지만 음성은 다르다. 대화에는 개인의 사상, 신념, 건강 상태, 내밀한 인간관계가 자연스럽게 담기기 때문이다. 그래서 법은 음성을 단순한 행동 기록이 아니라 사생활 침해 위험이 매우 큰 정보로 취급하며 통신비밀 보호에 준하는 수준으로 엄격하게 규제한다. 흔히 “녹음 중이라고 써 붙이면 되지 않느냐”는 오해가 있지만 답은 명확하다. 불특정 다수가 이용하는 공개된 장소에서는 자발적인 동의가 성립하기 어렵기 때문이다. 길을 지나가는 행인이나 손님은 녹음을 원하지 않더라도 그 공간의 이용을 포기하거나 녹음만 선택적으로 피할 현실적인 수단이 없다. 따라서 안내문을 부착했다는 이유만으로 원칙적으로 금지된 음성 녹음이 합법화되지는 않는다. 공개의 원칙: 안내표지판, 선택권을 보장하기 위한 최소한의 장치 CCTV가 적법한 지위를 유지하기 위해 필요한 또 하나의 기준은 투명한 공개다. 안내표지판 부착은 단순한 형식적 요건이 아니라 시민이 촬영 사실을 인지하고 그 공간을 이용할지 스스로 판단할 기회를 보장하기 위한 핵심 장치다. 촬영 목적이 아무리 정당하더라도 안내판이 없거나 글씨가 너무 작아 알아보기 어렵다면 그 설치 자체가 위법으로 판단될 수 있다. 안내판은 촬영 대상자가 “지금 이 공간에서, 어떤 이유로, 누구에 의해 촬영되고 있는지”를 직관적으로 알 수 있도록 작성되어야 하며 이를 위해 법은 안내표지판에 최소한 ▲설치 목적 및 장소 ▲촬영 범위 및 시간 ▲관리책임자의 연락처를 반드시 기재하도록 요구하고 있다. CCTV는 보호의 도구이자, 가장 가까운 감시다 CCTV는 보호의 도구이지만 그 작동 방식과 활용 범위에 따라 언제든 가장 가까운 감시로 전환될 수 있는 장치이기도 하다. 이러한 '감시 가능성'이 사회 전반으로 확장되어 스스로 자신을 검열하게 만드는 감시의 작동 논리가 바로 파놉티콘이다. 개인의 일상을 데이터로 점수화하여 사회적 권리를 제한하는 디지털 통제 시스템의 위험성, 그리고 이를 경계하여 EU 인공지능법이 고위험 AI에 대해 엄격한 제한을 두는 이유 역시 여기에 있다. 문제는 기술 그 자체가 아니라 기록이 축적되고 결합되어 개인의 행동을 통제하는 수단으로 변질될 가능성에 있다. 이러한 문제의식은 거창한 국가 감시 체계에만 국한되지 않는다. 가정 내에 설치되는 반려견 캠이나 홈캠 역시 주거 공간이라는 이유로 무제한으로 허용되는 것은 아니다. 개인정보보호법상 집 안은 원칙적으로 '비공개 장소'에 해당한다. 그러나 방문 교사나 가사도우미 등 정기적으로 출입하는 타인이 있다면 사생활 침해 문제가 발생할 수 있다. 특히 촬영 사실에 대한 고지 없이 영상이 저장·활용되는 경우에는 분쟁으로 이어질 소지도 적지 않다. 따라서 CCTV는 타인의 권리를 고려해 명확한 목적과 책임 있는 방식으로 사용되어야 할 장치다. 지금 당신의 CCTV는, 그 선을 넘지 않고 있는가?

2026.01.13 10:58안정민 컬럼니스트

컴투스, 개인정보 보호 자동화 솔루션 들인다…'오내피플'과 맞손

컴투스가 이용자들의 개인정보를 보다 안전하게 보호하기 위해 개인정보보호 자동화 전문 기업 '오내피플(O.NE PEOPLE)'과 손을 잡았다. 컴투스는 7일 오내피플과 협업 관계를 구축하고 오내피플의 개인정보보호 자동화 솔루션 '캐치시큐(CatchSecu)'를 도입해 내부 보안 수준을 높일 계획이라고 밝혔다. 컴투스에 따르면 캐치시큐는 개인정보처리자가 개인정보를 수집·이용·보관·파기하는 전 과정에서 필요한 개인정보보호 조치를 인공지능(AI) 기술을 활용해 체계적으로 지원하는 솔루션이다. 서비스 운영 과정에서 담당자가 놓치기 쉬운 안전성 확보 조치를 별도의 설정 없이 추가 개발 없이도 자동으로 적용할 수 있도록 설계됐다. 캐치시큐 도입을 통해 컴투스는 수작업 중심의 개인정보 관리 과정에서 발생할 수 있는 공백을 메울 수 있을 것으로 예상하고 있다. 뿐만 아니라 관련 법령 및 내부 기준에 부합하는 보호 조치를 안정적으로 유지하겠다는 복안이다. 앞서 컴투스는 캐치시큐와 약 1년간 협업을 이어오며, 솔루션 도입을 전제로 한 다양한 논의와 검증을 진행해왔다. 이 과정에서 컴투스 사내 서비스 환경과 개인정보 처리 특성을 고려해 실제로 필요한 핵심 기능들을 선별하고, 이를 중심으로 개발을 요청했왔다. 단순 기능 검증을 넘어 실무에서의 활용 가능성, 운영 편의성 등을 중점적으로 고려해 캐치시큐를 선정하게 됐다고 협업 배경을 설명했다. 이런 과정을 거쳐 현재 두 차례의 실증·검증 단계를 성공적으로 마무리했다. 컴투스는 이를 바탕으로 내년 초 정식 도입을 목표로 하고 있다. 오내피플은 캐치시큐 솔루션의 전반적인 기획과 설계, 핵심 기능에 대한 개발을 담당한다. 컴투스는 개발된 솔루션을 실제 서비스 환경에 적용하고 사용성과 실효성을 검증하는 역할을 맡았다. 컴투스 측은 "이번 캐치시큐 도입으로 개인정보 처리 효율성을 높이는 동시에 이용자들의 개인정보를 보다 안전하게 보호해 이용자들이 안심하고 게임 서비스 이용에 집중할 수 있는 환경을 제공하는 것을 기대하고 있다"고 밝혔다.

2026.01.07 15:56김기찬 기자

쿠팡 개인정보 유출 후폭풍…플랫폼업계에 불똥튀나

대규모 개인정보 유출 사건을 일으킨 쿠팡이 미온적인 대처로 빈축을 사면서 정치권의 압박 수위가 플랫폼업계 전반으로 퍼질 수 있다는 우려가 커진다. 30일 플랫폼업계에 따르면 정부는 최근 10개 부처가 참여한 '쿠팡 사태 범정부TF'를 출범시키며 전방위 수사를 이어가고 있다. 공정거래위원회는 쿠팡과 같이 시장지배적지위를 남용한 기업에 대한 과징금 한도를 현행 매출액 6%에서 20% 올리는 법 개정안을 내년 발의할 예정이다. 이와는 별개로 피해회복 조치를 고려해 영업정지 여부를 검토 중이다. 또한 개인정보보호위원회는 개인정보 보호법을 위반한 기업에 대해 전체 매출액의 최대 10%까지 과징금으로 부과할 수 있는 징벌적 과징금 특례를 통과시킨 상황이다. 쿠팡이 고객 보상안과 김범석 의장 명의의 사과문을 발표했음에도 비판이 끊이지 않으면서 업계 내에서는 쿠팡에 박힌 미운털이 플랫폼 업계에 화살로 돌아갈 수 있다는 걱정이 나온다. 특히나 정치권에서 추진 중인 '온라인플랫폼법(온플법)' 입법과 맞물려 나비효과로 번질 수 있다는 시각 아래 현황을 예의주시하는 움직임도 감지된다. 플랫폼업계 관계자는 “잘못된 부분에 대해 시정조치를 하는 것은 맞지만, 조치 자체가 사전 규제 방향으로 흘러가는 것에 대한 불안감은 있다”며 “보안사고는 어떻게든 일어날 수 있는 부분이다보니 개인정보 관리나 관련 규제 장벽이 지나치게 높아질 수 있다는 우려도 있는 건 사실”이라고 말했다. 미국 기업을 자처하는 쿠팡에 대한 제재도 제대로 이뤄지지 않는 가운데, 온플법이 시행되면 국내 기업에만 역차별이 불 보듯 뻔하다는 불만 섞인 목소리도 나온다. 플랫폼업계 관계자는 “쿠팡이 미국에 상장했다는 이유로 이같이 심각한 상황에도 청문회 등에 불러오지 못하고 제대로 된 제재가 안되는 상황에서 온플법이 시행되면 구글 등 빅테크를 과연 똑같이 처벌할 수 있겠냐”고 반문했다. 또 다른 이커머스업계 관계자는 “쿠팡 자체적인 문제로, 얼마 남지 않는 국내 이커머스 기업들 전체를 다 규제하는 방식으로 움직이지는 않았으면 좋겠다”고 밝혔다. 플랫폼업계 관계자는 “쿠팡의 개인정보 유출 건에 대해 신경을 곤두세우고 있는 상황”이라고 조심스레 설명했다.

2025.12.30 14:31박서린 기자

[법과 상식 사이] ISMS-P 무용론은 왜 반복되는가

2025년 정보보안 사고와 ISMS-P 정보보안 전문가들은 2025년을 정보보안 역사상 최악의 해라고 말한다. 사고의 유형과 규모, 유출된 정보의 민감도, 기업의 대응 과정 전반에서 논란이 이어졌고, 과거와는 다른 양상이 반복되면서 사회적 불안도 커지고 있다. 특히 “ISMS-P 인증을 받았는데도 사고가 났다”는 비판이 확산되며 이른바 'ISMS-P 무용론'까지 고개를 들었다. 거듭되는 대형 사고 속에 국민의 불안은 깊어지고 있지만, 정작 ISMS-P 제도가 무엇을 보장하고 어디까지 해결할 수 있는지에 대한 근본적인 이해는 여전히 부족하다. 이제는 제도에 대한 오해와 과도한 기대를 정리하고 ISMS-P의 한계와 역할을 정확히 짚으며 그 개선 방향을 함께 고민하는 수고스러움을 시작할 때다. ISMS-P가 묻는 것과 우리가 기대한 것 ISMS-P는 정보보호 및 개인정보보호 관리체계(Information Security Management system & Personal Information Protection)의 약자로 기업이 법에서 정한 기준에 따라 정보보호 체계를 구축하고 관리하는지를 심사해 인증하는 제도다. 기업이 최소한의 보안 요건을 일회성이 아니라 상시 유지하도록 유도해 전반적인 정보보호 수준을 끌어올리는 데 목적이 있다. 그럼에도 ISMS-P 무용론이 제기되는 이유는 무엇일까? 이는 ISMS-P를 정보보호의 완벽한 방패로 오해한 데서 출발한다. ISMS-P는 침해를 원천적으로 차단하기 위한 제도가 아니다. 오히려 정보보호가 조직 내부에서 관리되지 않은 채 방치되는 것을 막기 위한 최소한의 관리 체계에 가깝다. 건강검진이 암을 완벽히 막아주지 못하듯, ISMS-P 역시 침해 사고를 완벽히 차단해 주는 제도는 아니다. 대신 조직이 정보보호 자산을 정확히 식별하고 있는지, 책임과 권한이 명확히 설정되어 있는지, 위험을 체계적으로 관리하고 있는지, 그리고 사고 발생 시 대응과 재발 방지 체계를 갖추고 있는지를 점검한다. 즉, ISMS-P의 핵심 질문은 “사고유무”라는 결과가 아니라 “사고를 통제하고 관리할 역량을 갖추고 있는가”라는 거버넌스의 문제다. 이러한 본질에 대한 이해가 없다면 ISMS-P는 사고가 발생할 때마다 아무 소용이 없는 제도처럼 보일 수밖에 없다. ISMS-P의 구조적 한계: 관리와 통제 사이의 간극 물론 ISMS-P의 한계는 분명하다. 이 제도는 태생적으로 경계(perimeter)가 있는 세상을 전제로 설계되어 있다. 사무실 출입문을 잠그듯 내부와 외부를 구분하고, 인가된 내부 사용자는 일단 신뢰하며, 정해진 규칙과 절차를 문서로 관리하는 방식이다. 문제는 오늘날의 보안 위협이 더 이상 정문으로 들어오지 않는다는 데 있다. 정상 계정을 탈취해 내부 직원처럼 활동하고, 수개월 동안 아무도 눈치채지 못하게 정보를 빼내며, 클라우드나 협력사·공급망이라는 사각지대를 통해 침투한다. 더 이상 담장을 높이는 방식만으로는 위협을 관리하기 어려운 환경으로 이동했다. 이러한 환경에서는 ISMS-P가 답할 수 있는 질문과 그렇지 못한 질문은 분명히 갈린다. ISMS-P는 관리 책임의 소재가 명확한지, 관리 체계에 구조적 공백이 없는지 점검하는 데는 유효하다. 그러나 사고가 언제 시작됐고 어떻게 확산됐는지, 실제 서비스와 운영에 어떤 영향을 미쳤는지를 끝까지 설명하기에는 태생적인 한계가 있다. 결국 '관리했다'는 사실과 '실제로 통제됐다'는 현실 사이의 간극, 이것이 ISMS-P가 대형 사고 앞에서 무력해 보이는 근본적인 이유다. ISMS-P의 진화: '절차를 마련했는가'를 넘어 결과와 책임의 완결성으로 유럽의 최신 정보보안 지침인 NIS2(Directive (EU) 2022/2555)는 ISMS-P의 향후 진화를 고민하는 데 중요한 시사점을 제공한다. NIS2는 이미 경계가 무너진 환경을 전제로 사고가 발생했을 때 조직이 그 발생 경로와 영향 범위를 어디까지 설명할 수 있는지를 묻는다. 보안 규제의 무게중심이 관리 절차가 존재하는가에서 '설명 책임을 끝까지 질 수 있는가'로 이동한 것이다. 이를 위해 NIS2는 단순히 관리 체계의 수립 여부에 그치지 않는다. 경영진에 대한 직접적인 책임 부과, 공급망 전반에 대한 통제 의무, 사고 발생 시 신속하고 일관된 설명이 가능한 내부 역량까지를 법적 의무로 명시한다. 다시 말해 절차를 갖추었는지 묻는 과정 중심의 질문에서 벗어나, “사고를 통제하고 그 결과를 책임 있게 설명할 수 있는가”란 결과와 책임의 완결성을 규제의 중심에 놓는다. ISMS-P 2.0으로의 도약: 관리의 증명에서 '설명의 책임'으로 이제 한국의 ISMS-P가 마주한 과제는 제도의 존속 여부를 둘러싼 소모적인 논쟁이 아니라 변화한 환경에 맞는 역할의 재정의에 있다. 지금까지의 ISMS-P를 'ISMS-P 1.0'이라 부른다면 정보보호를 조직의 자율적 선언이 아닌 공적인 관리 책임의 영역으로 제도화했다는 점에서 1.0의 소임은 이미 충분히 수행했다. 유럽의 NIS 지침이 현실적 한계를 거치며 NIS2로 진화해 실질적인 대응력을 강화했듯이 우리 역시 관리 체계라는 단단한 기초 위에 다음 단계를 준비해야 한다. 사고를 조기에 탐지할 수 있는 역량, 사고 이후에도 신뢰할 수 있는 기록의 무결성과 분석 능력, 사고 전개 과정과 영향을 투명하게 설명할 수 있는 체계를 단계적으로 덧붙여나가야 한다. 결국 ISMS-P 무용론을 넘어서기 위해 필요한 것은 제도의 부정이 아니라 기대 수준의 정렬이다. ISMS-P가 담당하는 '관리의 기초'와 그 이후 요구되는 '설명의 책임'이라는 영역을 명확히 구분할 때 ISMS-P는 더 이상 무용한 껍데기가 아니라 한국 정보보호 거버넌스를 지탱하는 핵심 인프라로 자리 잡을 수 있을 것이다.

2025.12.29 15:16안정민 컬럼니스트

정부, '개인정보보호 기금' 도입 신속 검토

김민석 국무총리는 24일 오전 정부세종청사에서 제8회 국가정책조정회의를 주재했다. 이날 개인정보보호위원회가 마련한 '개인정보 유출사고 방지 종합 제도개선 방안'도 논의했다. 김 총리는 회의에 앞서 “전과정이 생중계된 전례없는 업무보고가 마무리됐다”며 “업무보고 긴장감이 공직사회 전체의 실천으로 이어져 국민의 삶이 실질적으로 변화할 수 있어야 한다"며 정부의 적극적인 자세와 국민에 대한 책임의 중요성을 강조했다. 정부는 지난 10일 제7회 국가정책조정회의에서 '쿠팡 고객정보 유출사고 대응현황 및 향후 계획'을 논의한데 이어 이날 다시 김 총리 주재로 '개인정보 유출사고 방지 종합 제도개선 방안'을 논의했다. 최근 이 대통령이 기업의 정보보호 규정 위반행위에 대해 강도 높은 제재가 필요하다는 원칙을 강조한 바 있는데, 이날 회의는 이를 실질적으로 구현하기 위한 후속조치 일환이다. 정부는 우선, 징벌적 과징금 도입, 유출통지 의무 강화 등 시급한 입법과제는 연내 입법이 완료될 수 있게 속도감 있게 추진한다. 특히, 반복적이고 중대한 위반에 대해서는 전체 매출의 최대 10%까지 징벌적 과징금을 도입한다. 또 이행강제금 등 조사의 강제력을 확보하고, 피해자 보호를 위한 피해회복 기금 도입 등 실효적인 조사·제재·배상 체계를 확립하기 위한 추가적인 제도개선 방안도 신속히 검토 및 이행할 방침이다.

2025.12.25 17:03방은주 기자

레딧, '16세 미만 SNS 금지법' 반기...위헌 소송 제기

미국의 커뮤니티 플랫폼인 '레딧'이 호주 대법원에 호주 정부가 실시한 '16세 미만 SNS 접속 금지법'을 무효화 해달라는 소송을 제기했다. 레딧은 해당 법이 "청소년들의 정치적 발언권을 막아 표현의 자유를 침해할 뿐만 아니라, 과도한 개인정보 수집을 강요한다"고 주장했다. 지난 10일 발효된 이 법은 플랫폼 기업들이 16세 미만 호주 청소년의 계정 생성을 막도록 의무화하고 있다. 이를 위반할 경우 기업은 최대 4천950만 호주 달러(약 486억원)의 벌금을 물게 된다. 레딧 "번지수 잘못 짚었다" 12일(현지시간) 시드니 모닝 헤럴드 보도에 따르면, 현재 레딧은 해당 법을 준수하면서도 법적인 다툼을 이어가고 있다. 사측은 이번에 제출한 소장에서 "이 법은 번지수를 잘못 짚었다"며 "2024년 온라인 안전 개정법(SNS 최저 연령 제한법)은 호주 청소년들이 온라인 정치 토론에 참여하는 것을 원천 봉쇄함으로써, 헌법상 보장된 정치적 의사소통을 부당하게 제한한다"고 밝혔다. 청소년을 보호할 수 있는 더 효과적인 방법들이 있음에도 불구하고, 정부가 모든 이용자의 사생활과 표현의 자유를 침해하는 광범위한 금지 조치를 택했다는 주장이다. 레딧은 세 가지 논리로 법적 대응에 나섰다. 법 자체의 효력을 문제 삼는 것은 물론, 레딧이 과연 정부가 규제하려는 '연령 제한 SNS 플랫폼'에 해당하는지에 대해서도 의문을 제기했다. "청소년의 목소리도 정치적 자산...실효성 없는 법" 레딧은 법원에 제출한 문서에서 "아이들의 정치적 견해는 부모나 교사 등 투표권을 가진 유권자들의 선택에 영향을 미친다"며 "아이들의 의사 표현을 막는 것은 호주 사회 전체의 정치적 소통에 부담을 주는 행위"라고 주장했다. 또 "오히려 계정을 가지고 있을 때 안전 설정을 통해 유해 콘텐츠로부터 청소년을 보호하기 쉬운데, 계정 자체를 금지하는 것은 이런 보호 장치를 없애는 꼴"이라는 논리로 이 법의 실효성 문제를 지적했다. "익명성 훼손과 개인정보 유출 우려"...미국 '디지털 연령 인증법' 대안 제시 레딧은 이번 소송이 이용자들을 대변하기 위한 것이라고 밝혔다. 레딧은 철저히 익명성을 기반으로 운영되는 플랫폼인데, 정부 규제를 따르려면 이용자들이 신분증이나 안면 인식 정보를 제출해야 한다. 이 탓에 개인정보 유출 염려가 있다는 게 회사 설명이다. 레딧은 "우리는 그동안 연령 정보를 수집한 적이 없는데, 이 법 때문에 완전히 새로운 인증 시스템을 구축해야 했다"고 토로했다. 회사는 형평성 문제도 제기했다. 레딧은 '친구 맺기'나 '알고리즘 피드' 중심의 일반적인 SNS가 아니라, 특정 주제를 토론하는 '공론장'에 가깝다는 주장이다. 실제로 10대 이용자가 많은 메신저 '디스코드'나 채팅 기능이 있는 게임 '로블록스'는 이번 규제 대상에서 빠졌다. 이에 레딧은 "성인 중심의 포럼인 우리가 불공평하게 타깃이 됐다"고 반발했다. 레딧은 대안으로 미국 캘리포니아주의 '디지털 연령 인증법'을 제시했다. 이 방식은 애플이나 구글 같은 운영체제(OS) 제공자가 기기 설정 단계에서 나이를 확인하고, 앱에는 구체적인 개인정보 대신 '연령대 신호'만 보내는 방식이다. 이렇게 하면 플랫폼에 민감한 개인정보를 넘기지 않고도 연령 확인이 가능하다는 설명이다. 호주 정부 "협박에 굴복하지 않을 것" 레딧은 이번 소송을 위해 헌법 전문 변호사 페리 헤르츠펠트와 대형 로펌 톰슨 기어를 선임했다. 이들은 일론 머스크의 '엑스'(옛 트위터)를 대변해 호주 정부와 싸웠던 팀이기도 하다. 첫 심리는 내년 2월에 열릴 예정이며, 최종 판결은 내년 말에나 나올 것으로 예상된다. 이에 호주 정부는 강경한 입장을 고수했다. 호주 정부 대변인은 "알바니즈 정부는 플랫폼 기업이 아니라, 호주의 부모와 아이들 편"이라며 "법정 다툼이 있더라도 소셜미디어의 유해성으로부터 청소년을 보호하겠다는 의지는 꺾이지 않을 것"이라고 밝혔다. 아니카 웰스 통신부 장관 역시 "우리는 협박에 굴복하지 않을 것이며 법적 분쟁에 위축되지 않는다"고 강조했다.

2025.12.14 09:21백봉삼 기자

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

코스피 6000 고지 코앞…'100만 닉스' 신화 썼다

월마트 1조 달러 돌파했는데…韓 유통 빅3, 저평가 탈출 시동

담합 의혹 속 설탕·밀가루 줄인하…밥상물가 내릴까

가상자산 거래소 대주주 지분 공방…쟁점은

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.