• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'개'통합검색 결과 입니다. (240건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[현장] 나무 비집고 농약 '칙칙'…'로봇개'는 사람 졸졸

“와! 로봇개다!” 15일 서울 삼성동 코엑스에서 열린 국제인공지능대전(AI엑스포)에서 딱딱거리며 걷는 로봇개가 관람객 눈길을 끌었다. 발길도 따랐다. 사람들은 “로봇개가 신기하다”고 따라가며 사진과 영상을 찍어댔다. 이 로봇개는 국내 인공지능(AI) 기업 마음AI가 개발한 소프트웨어(SW)를 입은 피지컬 AI(Physical AI)다. 피지컬 AI는 몸통이 있는 AI로, 쉽게 말해 로봇이다. 휴머노이드(인간 형태 로봇)와 자율주행 자동차가 대표적이다. 공항에서 마주치던 안내 로봇이나 식당에서 음식을 나르는 서빙 로봇처럼 생긴 로봇 '에이든'도 있었다. 마음AI 직원이 “잔디 밟고 가”라고 명령하자 에이든은 잔디를 밟고 앞으로 나갔다. 반대로 직원이 “잔디 피해 가”라고 하니 이 로봇은 잔디를 피해 옆으로 돌아갔다. 마음AI는 해마다 AI엑스포에서 제품을 소개한다. 올해 처음 들고 나온 제품은 자율주행 농기계다. 이는 과수원에서 나무 사이를 비집고 다니며 농약을 뿌린다. 유태준 마음AI 대표는 “카메라로 찍으면서 나무를 피해 농약을 뿌리는 자율주행 농기계는 우리 제품이 세계 최초”라고 말했다. 유 대표는 “강원 영월군 복숭아 과수원에서 현장 시험 중”이라며 “검증이 끝나면 한국·일본과 동남아시아로 뻗어나갈 것”이라고 강조했다. 그는 “이미 국내 과수원에 100대를 직접 납품하기로 계약했다”며 “인도네시아와도 계약했고, 일본 농기계 회사와는 계약을 추진하고 있다”고 들려줬다. 그러면서 “바퀴는 탱크처럼 생긴 무한궤도”라며 “도랑에 빠지지 않고 질퍼덕거리는 땅에도 걸리지 않는다”고 설명했다. 이어 “마음AI 소프트웨어를 지뢰탐지기에 넣으면 국방에 활용할 수 있다”며 “건설 현장에서도 쓸 수 있다”고 덧붙였다. 마음AI는 '사회적 약자를 위한 무인 정보 단말기(배리어 프리 키오스크·Barrier Free KIOSK)'도 선보였다. 상판에 점자가 있고, 화면에는 수어로 표현하는 캐릭터가 나온다. 휠체어가 다가오면 알아서 높이를 낮춘다. 유 대표는 “공공·의료·교육 현장에서 우선 적용하고 있다”며 세브란스병원을 예로 들었다. 올해 초 장애인차별금지법이 개정돼 100인 미만 사업장도 키오스크를 쓴다면 배리어 프리 제품을 도입해야 한다. 마음AI의 AI콜센터(AICC)는 한국과 일본 최고 자동차 회사가 각각 전시장에서 상담하는 데 쓰고 있다. 손님이 콜센터에 전화해 “무슨 차 색깔 어떤 게 있느냐”고 물으면 “안녕하세요? H사 AI 상담원입니다. 문의하신 차량의 외장 색깔은 무광 검정, 유광 검정, 유광 회색, 흰색이 있습니다. 더 확인하고 싶은 점을 알려주세요.”라고 답한다.

2025.05.15 17:15유혜진

"개인정보 유출 기업이 불법유통 추적해야"

더불어민주당 이정문 의원이 개인정보 유출 기업과 기관의 사후 책임을 강화하는 개인정보 보호법 개정안을 대표발의 했다고 1일 밝혔다. 최근 SK텔레콤 사이버 침해사고를 비롯해 대규모 개인정보 유출 사고가 반복되고 있으나, 현행 개인정보보호법에는 유출된 개인정보의 불법유통을 추적하고 확산을 방지하는 사후 조치에 대한 의무는 없다. 이에 따라 개정안은 일정 규모 이상의 개인정보 유출 사고 발생 시 기업에 추가적인 의무를 부과하는 내용을 담았다. 구체적으로 ▲1천명 이상의 정보주체에 관한 개인정보 유출 ▲민감정보, 고유식별정보 유출 ▲개인정보처리시스템 또는 개인정보취급자가 개인정보 처리에 이용하는 정보기기에 대한 외부로부터의 불법적인 접근에 의한 개인정보 유출 시 2년간 유출된 정보의 불법유통 여부를 모니터링하고 모니터링 결과를 개인정보보호위원회에 보고하도록 의무화했다. 모니터링 미이행 또는 보고 의무 위반 시 3천만원 이하의 과태료 부과 조치도 마련했다. 아울러 유출된 개인정보가 불법 유통되는 것을 확인한 경우 정보를 유통하는 자를 수사기관에 고발하도록 하고, 개인정보 유출로 피해를 입은 정보주체가 해당 정보의 불법유통 의심 시 개인정보보호위원회 등 전문기관에 신고할 수 있는 법적 근거를 마련했다. 이정문 의원은 “개인정보 유출로 인한 피해는 단순히 유출 자체에서 그치지 않고, 2차·3차 피해로 확산되는 경우가 많다”며 “기업과 공공기관들이 개인정보 유출 이후에도 지속적으로 유출된 정보에 대한 책임을 지고 사후 관리를 철저히 하도록 하는 것이 개정안의 취지”라고 밝혔다. 이어 “개인정보를 수집하는 기업과 공공기관은 정보의 안전한 보호뿐만 아니라 유출사고 발생 시 사후 확산 방지에도 책임을 다해야 한다”면서 “이번 개정안을 통해 SK텔레콤의 대규모 개인정보 유출 초기 대응실패와 무책임한 대응과 같은 상황을 방지해 국민의 피해를 최소화하는 데 기여할 것”이라고 강조했다.

2025.05.01 12:46박수형

개인정보위, 매달 현장 상담서 마이데이터·AI규정 설명

개인정보보호위원회는 29일 부산 해운대구 가명정보활용지원센터에서 '찾아가는 개인정보 현장 상담'을 실시했다. 지난달 서울에 이어 두 번째다. 개인정보위는 올해 추진할 가명정보와 마이데이터 제도 개선 방향, '개인정보보호법' 상 인공지능(AI) 특례 규정 등을 설명했다. 법령 해석 사례와 더불어 개인정보 보호 방안과 지난달 시행된 마이데이터 서비스 제도를 안내했다. 개인정보위는 '안전지킴이'도 두고 있다. 개인정보 보호 분야에서 실무 경험과 전문성을 쌓은 퇴직공무원이 안전지킴이로 활동한다. 이들은 온라인에 유·노출된 개인정보와 불법 유통 게시물을 탐지하고, 개인정보를 보호하는 데 어려움을 겪는 스타트업·소상공인을 상담한다. 개인정보위는 연말까지 매달 전국 7개 권역에서 찾아가는 상담을 하기로 했다. 5월(서울), 6월(대구), 7월(강원), 8월(인천), 9월(서울), 10월(대구), 11월(전북), 12월(대전) 등으로 계획했다.

2025.04.29 16:56유혜진

"AI 학습 정보 수집 때도 처리방침 투명하게 공개"

정부가 기관이나 기업들이 소비자들의 개인정보를 인공지능(AI) 학습에 활용할 경우에도 처리 방침을 투명하게 밝히도록 권고했다. 개인정보보호위원회는 28일 서울 강남구 한국과학기술회관에서 '개인정보 처리 방침 작성 지침 설명회'를 열고 이같이 밝혔다. 기관이나 기업들은 개인정보보호법 제30조에 따라 개인정보 처리 방침을 투명하게 작성 및 공개해야 한다. 개인정보보호위원회는 이 조항을 AI 학습에도 적용하도록 권고했다. 임종철 개보위 서기관은 "기관이나 기업이 AI 학습용 정보를 소비자로부터 수집해 이용한다면 어떤 식으로 투명하게 할 것인지 기준을 개인정보 처리 방침에 명시하길 권한다”고 말했다. 그는 정보주체 동의 없이 처리할 수 있는 개인정보 항목과 동의가 필요한 항목도 소개했다. 회원 서비스 운영이나 판매 상품을 사후 처리(AS)하기 위해 상담하는 등 계약 체결·이행에 관한 사항은 동의 없이 처리할 수 있다. 하지만 민감정보, 고유식별정보, 개인정보 제3자 제공의 경우 계약을 체결·이행하는 일이더라도 동의를 받아야 처리할 수 있다. 소비자에게는 개인정보 관련 고충을 직접 처리하는 부서 연락처를 알려주거나, 개인정보책임자(CPO)가 책임지고 고충을 처리하는 고객센터 등 유관 부서 연락처를 공개하도록 했다. CPO 소속 부서 연락처만 기재하면 됐던 기존 규정을 좀 더 강화한 것이다. 개인정보 처리 방침 공개 방식은 좀 더 다양화했다. 이에 따라 사업자 홈페이지 첫 화면 말고도 '서비스 메뉴', '설정', '회원가입', '로그인 영역' 등에 처리 방침을 표시해도 된다. 임 서기관은 “모바일 앱 환경이 다양해져서 공개 방식을 고쳤다”며 “기존에는 반드시 홈페이지 첫 화면 아래에 처리 방침을 공개해 맨 밑으로 화면을 내려야 이를 볼 수 있었다”고 강조했다. 행태 정보를 수집·이용·제공한다거나 소비자가 거부하는 방법을 알리는 요령도 안내했다. 이동일 개보위 사무관은 “사업자는 인터넷 쿠키와 맞춤형 광고를 차단하는 방법 등 정보 주체가 거부권을 행사할 방법을 제시해야 한다”며 “웹브라우저에 저장된 쿠키 삭제, 제3자 쿠키 삭제, 모든 쿠키 삭제 등 단계별로 맞춤형 광고를 차단할 수 있다”고 설명했다. 이날 설명회에는 공공·민간 부문 개인정보처리자 400명이 참석했다.

2025.04.29 16:05유혜진

[기고] 대한민국이 AI 강국으로 가는 길, 데이터 활용의 딜레마를 넘어

개인정보보호위원회가 주관해 상정하고 지난 2월 국가인공지능위원회가 심의해 채택한 '인공지능(AI) 데이터 확충 및 개방 확대방안'은 AI 시대를 맞아 우리나라가 경쟁력을 갖추기 위한 본격적인 첫걸음이라고 할 수 있다. 국가인공지능위원회는 이 방안을 채택하면서 AI 기반의 디지털 전환이 가속화되는 시대에 대응하고 AI 경쟁력을 높이기 위한 양질의 데이터를 보다 많이 확보하며 이를 적극적으로 활용할 수 있는 정책 마련을 목표로 삼았다. 이 의안에서 무엇보다 주목할 점은 AI 정책의 최상위 거버넌스 기구인 국가인공지능위원회가 AI 발전을 위해 데이터 접근이 필수적이라는 점을 공식적으로 인정했다는 것이다. 이는 데이터 활용을 둘러싼 사회적 인식과 정책 방향에 중요한 전환점이 될 수 있다. 다만 보다 중요한 과제는 이 방안의 취지를 뒷받침할 수 있는 구체적이고 실행력 있는 후속 정책을 신속히 마련한 후 실제 집행으로 이어가는 일이다. 이 과정에서 AI 모델이 실제로 어떻게 설계되고 학습되는지를 이해하는 것이 필수적이다. 산업 현장과 기술의 현실을 충분히 고려하지 않은 채 이론에만 머무는 논의는 오히려 과도한 규제나 비현실적인 기준으로 이어져 혁신을 저해할 위험이 있다. 이번 의안은 AI가 학습에 필요한 데이터를 활용할 때 정보주체의 '동의'만을 유일한 법적 근거로 삼지 않겠다는 취지를 담고 있다. 이는 동의를 받기 어려운 현실적인 제약과 형식적인 동의가 오히려 개인정보 보호를 약화시킬 수 있다는 문제의식에서 출발한 것이다. 동의 외에도 정당한 이익, 공익 목적, 가명정보 활용 등 다양한 법적 근거를 합리적으로 마련하면 데이터 활용의 유연성을 높이고 AI 혁신의 기반도 한층 더 강화할 수 있다. 결국 어떤 대안을 채택하고 그 기준을 어떻게 설계하느냐에 따라 한국 사회가 나아갈 AI 시대의 방향은 크게 달라질 것이다. '계약의 필요성(제15조 제1항 제4호)'과 '정당한 이익(같은 항 제6호)'은 개인정보보호법상 동의에만 의존하기 어려운 현실을 보완할 수 있는 중요한 법적 근거다. 지난해 12월 개인정보보호위원회가 공개한 개인정보 처리 통합 안내서에서도 이 두 근거의 적용 범위를 넓히려는 방향성을 확인할 수 있다. 이 방향성은 데이터 활용의 현실성과 기술 발전의 속도를 함께 고려하려는 시도의 일환이라고 볼 수 있다. AI 학습에는 필연적으로 대규모 데이터의 활용이 요구되며 이를 뒷받침하려면 기술적 맥락과 사회적 현실을 반영한 유연한 법적 근거가 필요하다. 그런 점에서 '계약의 필요성'과 '정당한 이익'의 적극적인 해석과 적용은 앞으로의 AI 정책과 데이터 활용 논의에서 핵심적인 역할을 하게 될 것이다. AI 모델의 발전은 이제 단순한 IT 기술의 문제가 아니라 국가 경제 전반의 경쟁력과 대한민국 사회 전체의 이익과 직결된 과제가 됐다. 기업들은 경쟁력 있는 AI 기술을 학습하고 고도화하는 일을 생존 전략의 일부로 받아들이고 있으며 일반 국민 역시 AI 기술을 통해 보다 나은 서비스를 누릴 기회를 기대하고 있다. 한국 사회의 현실을 제대로 반영하는 AI 기술을 개발하기 위해서는 국내 이용자에 기반한 데이터가 필수적이다. 우리의 언어, 지리, 문화적 맥락을 반영하지 못하는 기술은 결과적으로 편향되거나 차별적인 판단을 내릴 수밖에 없다. 이러한 문제는 AI가 우리의 일상 속으로 깊이 들어오고 있는 지금 중대한 사회적 문제로 부상하고 있다. 결국 해답은 데이터 접근성의 획기적 확대에 있다. 이미 세계 각국은 데이터 주도권 확보를 위한 경쟁에 돌입했다. 유럽 개인정보보호이사회(EDPB)는 AI 학습을 위한 적법 근거로 '정당한 이익'을 명시했고 일본은 개인정보보호법 개정을 통해 일정한 요건 하에서는 동의 없이도 AI 학습 데이터 활용을 허용하는 방안을 추진 중이다. 이제 우리도 더 이상 논의를 미룰 수 없다. AI 시대에 걸맞은 구체적이고 실행 가능한 법적 기준을 마련해야 할 때다. 데이터 활용과 개인정보 보호는 대립하는 개념이 아니라 조화를 이뤄야 할 정책 목표다. 이를 위한 정교한 설계가 절실하다. 이 중요한 전환점에서 가장 필요한 것은 현장의 현실을 반영한 제도다. 기술을 직접 개발하고 데이터를 다루는 이들의 목소리를 반영하지 못한 규제는 결국 우리 스스로의 경쟁력을 제약하는 결과를 낳게 된다. AI 강국을 향한 우리의 여정이 규제의 그늘 속에 가로막힐 수 있다는 지적에 귀를 기울어야 할 것이다.

2025.04.14 17:17조경식

[AI는 지금] "개보위, 中 AI 옹호"…딥시크에 긍정 신호 보낸 고학수 위원장, 이유는?

중국 딥시크의 국내 진출 여부를 둘러싼 논란이 이어지는 가운데 개인정보보호위원회가 오픈소스 기반 인공지능(AI) 모델 활용에 긍정적인 입장을 밝혔다. 중국 기업의 앱 자체를 옹호한 것이 아니라 딥시크 등의 오픈소스 생태계 확장이라는 기술 전략에 지지를 표한 것으로 보인다. 24일 업계에 따르면 고학수 개인정보보호위원회 위원장은 최근 한 세미나에서 딥시크 오픈소스 모델의 활용 가능성을 언급하며 '글로벌 빅테크가 아닌 기업도 도전할 수 있는 기회'라고 표현했다. 해당 발언은 지난달 국내 앱스토어에서 자진 철수한 딥시크 앱과는 별개로 발전하고 있는 오픈소스 기술 흐름을 짚은 것으로 평가된다. 딥시크는 중국발 오픈소스 거대언어모델(LLM) 스타트업으로, 지난 1월 이후 전 세계 AI 생태계를 신속히 장악했다. 오픈AI, 앤트로픽, 구글 딥마인드 등 미국·영국 프런티어 AI 기업들이 천문학적 자금을 투입한 것과 달리 적은 비용으로 고성능 모델을 구현한 데다 오픈소스로 공개돼 폭발적인 관심을 받았다. 퍼플렉시티 등 해외 LLM 서비스 기업들은 이미 딥시크를 로컬 환경에 설치해 운영 중이다. 최근에는 국내 기업들도 이를 기반으로 특화 모델 개발에 나서고 있다. 뤼튼테크놀로지스와 이스트소프트는 지난 2월 딥시크 모델을 자체 클라우드 환경에 구축해 운영을 시작했다. 크라우드웍스는 일본 법인을 통해 딥시크 R1 기반 일본어 모델을 개발한 뒤 이를 한국어로 확장할 계획이다. 일각에선 크라우드웍스가 딥시크 본사와 직접 계약을 맺고 한국어 모델을 공동 개발했다고 주장했지만 이는 사실이 아닌 것으로 확인됐다. 크라우드웍스 측이 지난 23일 딥시크 본사와 계약한 적이 없으며 회사가 활용 중인 모델은 앱이 아닌 설치형 B2B 버전이라고 해명했기 때문이다. 데이터가 중국 서버로 전송되는 B2C 앱과는 구조적으로 다르다는 설명이다. 실제로 퍼플렉시티, 뤼튼, 이스트소프트 등의 국내 설치형 모델은 외부 인터넷과 연결되지 않는 제한된 환경에서 구동된다. 이에 따라 중국 서버로 정보가 전송될 가능성은 원천적으로 차단된다. 다만 보안업계에서는 딥시크처럼 오픈소스로 제공되는 모델이라도 로컬 환경에 도입할 경우 여전히 위험 요소가 존재한다고 지적한다. 오픈소스 특성상 코드나 가중치 파일에 악성 코드가 삽입될 수 있으며 모델 로딩 과정에서 시스템 취약점을 노린 침투 가능성도 배제할 수 없기 때문이다. 또 일부 개발자가 모델에 내장된 안전 장치를 우회하거나 변형 모델을 제작할 경우 유해한 콘텐츠나 악성 코드를 생성하는 방식으로 악용될 수 있다. 특히 딥시크는 경쟁 모델에 비해 보안 업데이트나 코드 감사가 부족하다는 평가도 있어 도입 시 철저한 검증과 보안 관리가 필요하다는 지적이 잇따른다. 실제로 김승주 고려대학교 정보보호대학원 교수는 최근 자신의 링크드인을 통해 "딥시크를 PC나 클라우드에 설치해서 쓰면 운영주체가 중국이 아니기 때문에 안전하다는 말이 돈다"며 "이는 굉장히 위험한 생각"이라고 지적했다. 그럼에도 고 위원장이 딥시크를 위시한 오픈소스 LLM에 주목한 이유는 분명하다. 자본과 인프라가 부족한 국내 AI 생태계가 낮은 진입 장벽을 바탕으로 글로벌 경쟁에 도전할 수 있다는 점 때문이다. 업계에선 이 같은 메시지를 한국 정부가 추진 중인 '월드 베스트 LLM' 프로젝트와 맞물려 해석하는 분위기다. 정부는 국가 차원의 대규모 언어모델 개발을 위해 파운데이션 모델을 오픈소스로 공개하고 공공 중심의 활용 사례를 확산하겠다는 계획을 밝힌 바 있다. 이 프로젝트는 지난 2월 과학기술정보통신부가 발표한 'AI R&D 전략 고도화 방안'에 핵심 과제로 포함됐다. 정부는 향후 3개월 이내 'AI 국가대표팀'을 선발해 연구 자원과 데이터를 집중 지원하고 공공 데이터를 기반으로 한 특화 모델 개발을 유도할 방침이다. 업계에선 딥시크 사례가 이 같은 흐름을 촉발하는 계기가 됐다는 평가도 나온다. 고성능 언어모델을 오픈소스를 통해 낮은 비용으로 구현할 수 있다는 점이 확인되면서 '챗GPT'나 '클로드' 등 프런티어 AI를 빠르게 따라잡을 수 있다는 기대가 생겼다는 분석으로, 보안만 보장된다면 무료로 실사용도 가능하다는 인식이 퍼진 것이 정책 전환에 영향을 미쳤다는 해석도 제기된다. 고학수 개인정보보호위원회 위원장은 "딥시크 등의 모델에는 분명 잠재적인 불안 요소가 있지만 빅테크가 아니어도 적은 투자를 통해 세계 시장에 도전할 수 있다는 메시지를 줬다"며 "이러한 오픈소스를 통해 국내에서도 다양한 앱 서비스를 만들 수 있을 것"이라고 말했다. 이어 "향후에 보다 넓은 생태계를 구축해야 한다고 믿는다"며 "자유로운 혁신의 한 축은 열린 모델을 통해 새로운 응용 생태계를 형성하는 것이라 생각한다"고 말했다.

2025.03.24 16:16조이환

246명 주인에게 '반려견 키우는 장·단점' 물었더니

반려견을 키우면 심장 발작이나 뇌졸중에 의한 사망 위험을 줄여준다는 장점도 있지만, 생명을 맡는 중대한 책임감이나 펫로스의 괴로움, 예방 접종이나 동물 병원에 드는 비용 부담도 적지 않다. 헝가리의 연구진이 반려견 주인 246명에게 33문제의 질문을 던져 그 답변에서 개를 기르는 것의 장점과 단점을 정량화한 연구 결과를 발표했다. 이 내용은 네이처·사이테크데일리·기가진 등 외신을 통해 소개됐다. 헝가리 에트베시 롤랜드 대학교 연구진에 따르면, 과거에도 반려견을 기르는 것이 인간에게 좋은 영향을 준다는 말들은 많았다. 반면 반려견 주인의 신체적인 건강이나 정신건강에 대해 조사한 과거 연구 결과는 제각각이어서 보편성을 갖기 어렵다는 한계가 있었다. 이번 조사에서 연구 그룹은 장점과 단점을 개별적으로 묻는 것이 아니라, 어느 쪽으로도 분류되지 않은 33항목의 질문을 구성했다. 그리고 각 질문마다 -3(큰 단점)에서 +3(큰 장점)까지 숫자로 평가하는 방식을 사용했다. 연구 참가자는 반려견을 기르고 있는 18세 이상의 성인으로, 유효 응답수는 246건, 응답자의 평균 연령은 41세, 개의 평균 연령은 5.8세였다. 이 조사에서 가장 긍정적으로 평가된 것은 '반려견은 삶을 밝게 해준다'는 신념으로, 평균 점수는 2.78이었다. 그 다음으로는 ▲반려견을 키우면 활동적이 되는 것(평균 2.7)과 ▲삶의 어려움을 함께 이겨내는 것(평균 2.59) ▲무조건 사랑해주는 것(평균 2.58) 등이 뒤를 이었다. 부정적인 평가에서 반려견 주인이 직면하는 가장 큰 어려움으로는 '반려견은 주인보다 수명이 짧다'(평균 –1.67)가 꼽혔다. 그 다음으로는 ▲반려동물이 살 만한 물건을 찾기 어려운 것(-0.7)과 ▲여행을 갈 때 누군가에게 맡겨야 하는 것(-0.66) ▲반려견이 말을 들어주지 않을 때의 스트레스(-0.64) 등을 꼽았다. 종합하면 반려견을 기르는 것의 장점에 대한 평가는 평균 '2.06'으로, 단점인 평균 '-0.66'에 비해 크게 플러스(장점)로 기울었다. 이런 정량적인 측정과 더불어, 연구 그룹은 자유 기술의 응답도 분석했다. 이를 통해 주인의 60.8%가 반려견과의 사이에 구축되는 '의미 있는 관계'를 실감하고 있는 것으로 나타났다. 예를 들어 한 주인은 "반려견은 무조건적인 사랑을 매일 느끼게 해준다"고 답했고, 또 다른 주인은 "순수한 사랑을 체험하고 마음이 열려 배움을 얻는다"고 밝혔다. 한편, 95.2% 거의 만장일치로 '금전적인 비용'이 반려견 주인들에게 부담이 되고 있는 것도 판명됐다. 특히 의료비는 큰 부담으로 74.9%가 지병이나 예기치 못한 컨디션 난조, 기생충 예방 등 어떤 형태로든 들어가는 의료비를 언급했다. 어느 주인은 “수의사의 진찰료, 특히 마취를 수반하는 수술비는 모두 고액이다. 또 당직 시간 중 수의사에게 데려가야 할 경우 안타깝게도 당직 요금까지 더 붙는다”고 말했다. 마찬가지로 주인의 31.7%는 매일 드는 먹이값을 언급했으며, 운동이나 그루밍 등의 비용을 꼽는 주인도 12.3% 있었다. 이에 비해 반려견을 돌보는 데 드는 수고나 여행 제한 등의 실생활상 비용을 꼽은 사람은 4%, 피할 수 없는 이별의 슬픔 같은 감정적 단점을 언급한 사람은 4.8%에 그쳤다. 연구진은 “반려견을 키우는 경험은 다면적이며, 모든 주인에게 해당되는 보편적인 비용이나 장점으로 그것을 설명할 수는 없다는 결과가 나왔다”며 “특히 반려견 사육에 따른 헌신과 책임이 감정적 혹은 실제적인 부담으로 인식될 수도 있고, 반대로 유익한 것으로 인식될 수도 있었다”고 말했다.

2025.03.09 09:29백봉삼

'블랙야크' 보안 뚫렸다...개인정보 34만 건 유출

의류 브랜드 BYN블랙야크의 회원 34만 명 개인 정보가 유출됐다. 회사는 이번 사고로 소비자들에게 피해가 가지 않도록 최선을 다하겠다는 입장을 냈다. 6일 블랙야크에 따르면, 이번 정보 유출은 지난 4일 해커에 의한 홈페이지 공격을 통해 발생했다. 유출된 개인정보 항목은 ▲이름(닉네임) ▲성별 ▲생년월일 ▲휴대전화 번호 ▲주소 뒷부분 등이다. 블랙야크는 본 사안을 인지한 직후 사고 원인을 파악했고, 해당 IP와 불법 접속 경로를 차단한 뒤 취약점을 점검해 보안 조치했다고 말했다. 개인정부 유출 등으로 인해 손해가 발생한 경우 개인정보 분쟁조정위원회에 분쟁조정을 신청할 수 있다. 회사는 “개인정보 유출로 인해 심려를 끼쳐드린 점에 대해 다시 한번 깊이 사과드린다”며 “유출로 인한 피해가 발생하지 않도록 최선을 다하겠다”고 했다.

2025.03.06 20:00류승현

"中에 220배 뒤처져"...자율주행차 발목잡는 규제

“지난해까지 중국 바이두가 쌓은 자율주행 운행 기록이 1억1천만km였다. 국내 1위 업체로 평가받는 오토노머스에이투지가 50만km로 약 220배 차이가 난다. 방대한 데이터 차이를 극복하려면 양질의 데이터를 수집할 수 있게 해야 한다.” 이상동 한국자율주행산업협회 팀장은 지난 27일 열린 '자율주행 산업 지원 국회 토론회'에서 이같이 말했다. 최근 중국 스타트업이 내놓은 AI 모델 '딥시크'가 저성능 칩으로 충격적인 성능을 보여주자 BYD와 지리 등 현지 자동차 기업들이 잇따라 자율주행 기술에 딥시크를 활용하겠다고 나섰다. 일찍이 자율주행 기술을 내세워온 테슬라도 지난해 말 완전자율주행(FSD) 소프트웨어 최신 버전을 업데이트하고, 오는 6월 이를 기반으로 한 로보택시 서비스를 예고하는 등 기술 고도화에 집중하는 추세다. 해외 기업들이 실제 주행 데이터를 수집하고, 이를 토대로 기술을 고도화하는 반면 우리나라는 데이터 수집 제한 규제로 양적 격차가 크게 벌어지고 있다는 지적이다. 이상동 팀장은 “AI 기업과 자율주행 기업, 완성차 기업들이 경계선 없이 넘나들면서 협업을 하며 AI 학습을 위한 데이터 수집과 활용이 중요하게 됐다”며 “국내에 자율주행차가 돌아다니려면 국내 환경에 맞는 최적화 데이터가 꼭 필요하다”고 강조했다. 특히 국가 차원에서 양질의 주행 데이터를 수집하는 것이 바람직하다고 봤다. 영세한 스타트업도 산업에 진입할 수 있게 하자는 취지다. 지난 2023년 개인정보보호법 개정에 따라 '이동형 영상정보처리기기'라는 개념으로 주행 영상을 데이터로 활용할 수 있는 법적 근거가 마련됐다. 그러나 데이터의 질적 측면에서 미국, 중국 등 자율주행 기술에 공들이는 국가 대비 여건이 불리하다는 지적이다. 이 팀장은 “테슬라로 예를 들면, 500만대 차량이 도로를 주행하며 사고가 발생하면 당시 영상을 그대로 본사에 전송함에 따라 그 데이터를 자율주행 AI 성능 개선에 활용하고 있다”며 “이런 회사와 규제 샌드박스 차량 몇십 대의 주행 데이터를 토대로 기술을 개발하는 (우리나라) 회사 간 경쟁력이 어디에 있겠나”라고 강조했다. 특히 현 제도 하에서 주행 영상 데이터를 활용할 때 개인정보 비식별화 처리 과정을 거치게 하는 점을 문제 삼았다. 비식별 처리된 영상을 학습한 AI보다 원본 영상을 학습한 AI가 객체 인식이나 주행 판단의 정확도가 17% 이상 높아졌다는 연구 결과를 소개했다. 이 팀장은 “특히 야간 주행, 악천우 등 복잡한 도심 환경에서 원본 주행 영상의 활용 가치가 더욱 올라간다”고 덧붙였다. 우리나라에선 설정된 규칙에 따라 자율주행 AI 모델이 주어진 상황을 인지하고 제어하는 반면, 테슬라 등 선도 기업들은 AI가 사람처럼 새로운 상황에서도 적절한 판단을 할 수 있도록 엔드투엔드(E2E) 방식을 쓰고 있는 점에도 주목했다. E2E 방식 자율주행 AI 성능을 개선하기 위해 더욱 양질의 주행 데이터가 요구되고 있다는 분석이다. 이 팀장은 “결국 모든 사례를 사전에 정의할 수 없기 때문에, 정의된 내용을 벗어나는 사례에서 자율주행 AI가 어떻게 대응할지 모른다는 기술적 어려움이 있다”고 첨언했다. 규제 샌드박스를 통해 원본 주행 데이터 활용이 일부 허용되고 있지만, 대규모 개발 프로젝트에는 한계가 있어 많은 기업들이 비식별 처리된 영상 데이터를 사용할 수밖에 없는 상황이다. 이 팀장은 “규제 샌드박스는 일시적인 예외를 두는 제도인데 자율주행 산업은 계속 고도화해나갈 산업”이라며 “원본 주행 데이터 활용에 대한 지속적인 법적 근거가 마련돼야 한다”고 주장했다.

2025.02.28 18:37김윤희

[보안리더] 염흥열 CPO협의회장 "개인정보 지키면서 활용하는 PET 주목"

“기업에서 개인정보가 유출되면 전체 매출액의 최대 3%를 과징금으로 내야 합니다. 다만, 전체 매출액에서 위반 행위와 관련이 없는 매출액을 제외합니다. 매우 중요한 개인정보가 빠져나갔으니 벌을 받는 셈이죠. 그만큼 기업이나 기관의 개인정보보호책임자(CPO) 어깨가 무겁습니다.” 염흥열 한국개인정보보호책임자협의회장은 최근 서울 강남에서 지디넷코리아와 만나 “개인정보보호책임자 모임이 이제 막 첫발을 떼었다”며 이같이 말했다. 개인정보보호책임자는 영어로 CPO(Chief Privacy Officer)라고 부른다. CPO는 조직에서 개인정보 보호 계획을 세우고 시행하는 책임을 진다. 개인정보 처리 실태를 조사하고, 개인정보가 새어 나가지 않도록 내부 통제 시스템을 만든다. 기업과 공공기관 등에서 개인정보 처리를 책임질 CPO를 정해야 한다. 소상공인기본법에 따른 소상공인은 사업주 또는 대표자가 CPO가 된다. 이들이 모인 한국CPO협의회는 지난해 9월 출범했다. 112개 기업과 기관의 CPO들이 개인정보 보호 정책을 나누며 활동하고 있다. 부회장사는 21개다. LG유플러스, 우아한형제들(배달의민족), 카카오, 쿠팡, 삼성서울병원, 국립암센터, SK텔레콤, 한국전력공사, 삼성전자, 기아, 비바리퍼블리카(토스), KB국민은행, 국민건강보험공단, 넷마블, 한국교통안전공단, LG전자, 현대자동차, 삼성화재, 메타코리아(페이스북), KT, 한국인터넷진흥원이다. 염 회장은 순천향대 정보보호학과 명예교수이기도 하다. 전자공학과 교수로 지내다 2001년 정보보호학과를 만들었다. 한국정보보호학회 명예회장과 더불어 국제전기통신연합 전기통신표준화부문(ITU-T) 전기통신자문반(TSAG) 부의장도 맡고 있다. 아래는 염 회장과의 일문일답. -개인정보가 유출되면 CPO는 어떤 제재를 받나? “기업에서 개인정보가 유출되면 전체 매출액의 3%까지 과징금으로 내야 한다. 전체 매출액에서 위반 행위와 관련 없는 매출액은 제외되지만, 관련 없다는 사실을 기업이 자료로 입증해야 한다. 2020년 이래 카카오 등 국내 기업과 구글·메타 등 많은 해외 기업이 한국에서 수십억~수백억원 과징금을 부과 받은 적 있다. 유럽연합(EU)에서는 기업의 국내외 전체 매출액의 최대 4%를 과징금으로 물게 한다. 한국은 이보다 약한 편이다. 그래도 기업은 몇백만원 과태료보다 부담이라는 입장이다. 그만큼 CPO 역할이 중요하다. 공공기관·비영리법인·비영리단체 등은 매출액을 산정하지 않는다. 정확하게 매길 수 없어서다. '법인세법'에 의한 소득이 없으면 위반 행위 중대성에 따라 ▲500만원 이상 5천만원 이하 ▲5천만원 이상 2억원 미만 ▲2억원 이상 7억원 미만 ▲7억원 이상 18억원 등으로 구분해 기준 금액을 산정해 과징금을 낸다. 위반 행위 중대성은 개인정보보호위원회가 판단한다. 이렇게 거둔 과징금을 인재를 가르치고 연구개발(R&D)하는 데 써서 한국 개인정보 보호 수준을 더 높이면 좋겠다.” -한국의 개인정보 보호 수준이 어떤가? “세계적인 수준이다. 미국이나 EU보다 투명하고 구체적으로 기준을 정해 지킨다. EU도 어떤 기업이 소비자로부터 개인정보를 받아 적법하게 제3자에게 줄 수 있게끔 한다. 한국에서 그러려면 누가 누구에게 주는지, 왜 주는지, 이 정보를 언제 삭제할지 등을 개인정보처리방침에 세세히 명시해야 한다. 그래서 한국 규제가 깐깐하다고 느끼는 기업도 있다.” -기업이 개인정보 지키면서도 활용할 수 있는 방안이 있나? “그게 CPO들이 요즘 가장 관심 있는 일이다. 개인정보 보호 강화 기술(PET·Privacy Enhancing Technology)로, 개인정보를 최소한 수집하면서도 산업을 활성하는 기술 3가지를 주목한다. 첫째 가명정보다. 개인정보가 모두 공개된 정보라면, 익명정보는 모두 가린 정보다. 가명정보는 이 중간이다. 다른 정보와 맞춰보면 얼추 알 수 있지만 그대로는 알기 어려운 내용으로 꾸린다. 과학·연구·통계적 목적이라면 가명정보를 쓸 수 있다. 정보가 그대로 드러나는 게 아니라 이용자로부터 동의받지 않아도 제3자에게 넘길 수 있다. 둘째 동형암호다. 내 키가 170㎝라는 정보와 다른 사람 키는 165㎝라는 정보가 있다고 예를 들자. 이를 각각 암호로 만들어 결합기관에 주면 결합기관은 이를 더하거나 빼는 연산을 할 수 있다. 다만 결합기관은 이 정보 주인이 누군지 모른다. 정보 제공자가 되돌아온 결과를 보면 된다. 셋째 연합학습이다. 인공지능 시대에 맞게 개인정보도 인공지능을 활용하는 일이 잦다. 어떤 기기가 학습한 내용을 내보내면 안 되지만, 서로 다른 기기가 학습한 정보를 합쳐 또 학습하도록 하는 연합학습은 가능하다.” -정보보호업계 화두 '국가 망 보안 체계'와 '제로 트러스트'는 어떻게 보나? “국가 망 보안 체계는 N2SF(National Network Security FRAMEwork) 약자다. 지금껏 폐쇄된 공공 정보망을 열겠다는 정책이다. 그러니 '절대 믿지 말고 항상 검증하라'는 제로 트러스트(Zero Trust) 개념이 필수다. 외부 망은 당연하고 내부 망도, 모든 망은 해킹됐다고 전제하고 접근을 제한한다. 지금껏 내부 망 사용자는 믿어왔다. 외부 망 사용자는 비밀번호와 문자 인증 등 2가지 이상 인증하도록 했지만 내부 망 사용자는 비밀번호 하나면 됐다. 이제 내부 망 사용자도 이중 요소로 인증하도록 한다. 이에 새로운 보안 통제 도구가 필요하다. 기업에 새로운 시장이 열리는 셈이다.” -올해 협의회 계획은? “정책당국과 회원사가 깊게 논의할 수 있는 세미나 'KPPI(KCPO Prime Privacy Insight)'를 운영하겠다. 개인정보보호위원회와 CPO, 또 분야별 CPO끼리 교류하는 'KCPO 브릿지 포럼'도 열기로 했다. 고위관계자가 모여 정책 동향을 공유하는 'KCPO 프라이버시 서밋' 등도 주기적으로 할 예정이다. 오는 9월에는 서울 삼성동 코엑스에서 제47차 글로벌 프라이버시 총회(GPA·Global Privacy Assembly)가 개최된다. 이 총회는 세계 최대 규모의 개인정보 보호 관련 국제 회의로, 미국·EU·영국·일본 등 89개국 137개 기관이 참여한다. 이에 협의회가 적극적으로 나서 세계 개인정보 보호 전문가와 소통할 예정이다. 예비 CPO를 위한 교육 과정도 개발해 올해 시범 운영하려고 한다. CPO에 대한 자체 정책도 연구할 생각이다. 조직 형태, 예산과 인력 현황, 주요 고충을 들어 CPO 지정 현황 실태 조사를 하려고 한다.”

2025.02.25 09:23유혜진

'딥시크' 서비스 중단 파장…뤼튼·마음AI 등 R1 사용자 '안도'

정부가 중국 생성형 인공지능(AI) '딥시크'의 앱 다운로드를 국내서 중단시킨 가운데 '딥시크'를 활용하고 있는 업체들에게도 어떤 영향이 있을지 관심이 쏠린다. '딥시크'는 과도한 개인정보 수집에 따른 침해 문제를 고려한 우리 정부의 요청으로 다운로드가 중단된 상태로, 향후 국내 개인정보보호법에 따른 개선과 보완이 이뤄진 후 서비스가 재개될 예정이다. 17일 업계에 따르면 딥시크는 현재 ▲딥시크가 직접 운영하는 챗봇 서비스 및 기업용 API(외부 서비스와 연동하는 기능 제공) ▲딥시크가 개발한 오픈소스 '딥시크-R1' 모델로 누구나 다운로드해 자체 서버에 설치해 사용할 수 있는 두 가지 형태로 운영 중이다. 이 중 문제로 지적된 것은 챗봇 서비스 및 기업용 API다. 딥시크가 광범위한 사용자 개인정보를 수집하며 해당 데이터가 중국 서버에 저장된다는 점에서다. 이에 개인정보보호위원회는 지난달 31일 딥시크 본사에 개인정보 수집·처리 방식 관련 공식 질의서를 보내고 서비스에 대한 자체 분석에 착수했다. 그 결과 그간 여러 곳에서 지적된 제3사업자와 통신 기능 및 개인정보 처리 방침상 미흡한 부분이 일부 확인됐다. 이 같은 사실을 파악한 딥시크 사는 지난 10일 법무법인 태평양을 국내 대리인으로 지정한 후 글로벌 서비스 출시 과정에서 국내 보호법에 대한 고려가 일부 소홀했음을 인정했다. 또 지난 14일에는 앞으로 개인정보위에 적극 협력하겠다는 의사도 표명했다. 하지만 개인정보위는 보호법에 따라 딥시크 서비스를 시정하기까지는 상당한 시일이 걸릴 것으로 봤다. 또 추가적인 우려가 확산되지 않게 잠정 중단 후 개선·보완하도록 딥시크 사에 요구했다. 최장혁 개인정보위 부위원장은 "딥시크 앱의 국내 서비스가 지난 15일 오후 6시부터 잠정 중단됐다"며 "국내 개인정보 보호법에 따른 개선·보완이 이뤄진 후에 서비스가 재개될 예정"이라고 말했다. 이번 일로 앱마켓에선 당분간 신규로 딥시크 앱을 다운받을 수 없게 됐다. 다만 기존 앱 이용자와 웹 서비스 이용은 제한되지 않는다는 점에서 개인정보위는 개인정보를 입력하지 않는 등 신중하게 이용할 것을 당부했다. 또 개인정보위는 서비스 중단 기간에 딥시크 개인정보 처리 실태를 점검할 계획이다. 서비스 재개는 국내법에 따른 개선·보완을 진행한 뒤 진행될 방침이다. 남석 개인정보위 조사조정국장은 "기존에 앱을 다운받은 경우 사업자 측에서 마땅히 할 수 있는 조치가 없고 인터넷 역시 차단이 쉽지 않다"며 "실태점검 과정에서 보호법상 준수 의무 등을 살펴보고 결과 발표 시 대책을 발표할 것"이라고 설명했다. 반면 딥시크 R1 모델을 쓰는 기업들은 이번 개인정보위의 중단 방침에서 제외됐다. 현재 R1 모델을 쓴 것으로 알려진 곳들은 뤼튼테크놀로지스와 마음AI, 포티투마루 등이 대표적이다. 뤼튼테크놀로지스는 자체 클라우드에 R1 모델을 탑재하고 카카오톡을 통해 무료 질의응답 서비스를 제공하고 있다. 마음AI는 기업용(B2B) 상품으로 내부망에 전용 R1 모델을 설치할 수 있는 서비스를 출시했다. 포티투마루는 멀티 LLM 기반 생성형 AI 솔루션에 R1 모델을 지원한다. 현재까지 R1 모델을 채택한 기업들의 테스트에서는 보안 위협이 확인되지 않은 것으로 파악됐다. 해외 기업들도 최근 딥시크 R1 모델을 적극 도입하고 나섰다. 마이크로소프트(MS)와 아마존, 인텔, AMC, 엔비디아 등이 대표적이다. 뤼튼 관계자는 "자사 서비스는 클라우드 기반의 안전 서비스를 제공하는 것으로, 개보위의 이번 방침과 전혀 관련이 없다"며 "서비스 중단할 계획은 없는 상태로, 자사는 B2C 기업으로서 양질의 서비스를 제공하기 위해 더 노력할 것"이라고 말했다.

2025.02.17 17:18장유미

[기고] 인공지능 시대, 무분별한 중복 규제 지양해야

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 규제의 근간이 될 수 있는 인공지능기본법(AI기본법)이 지난 1월 국회에서 정부로 이송돼 공포됨에 따라 내년부터 본격적인 시행을 앞두고 있다. 이같은 상황에서 프라이버시 분야에서의 AI 규제에 관한 법안도 새롭게 발의됐다. 지난달 31일자 개인정보 보호법 일부개정법률안이 바로 그것이다. 공개된 주요 내용에 따르면 개인정보보호위원회의 심의·의결을 거친 경우 적법하게 수집한 개인정보는 AI 개발을 위해 활용할 수 있게 된다. 이 과정에서 정보주체의 권리 침해가 발생하지 않도록 사전 및 사후적 조치도 마련됐다. 다시 말해 사전적으로 개인정보 처리방침을 통한 투명성 확보 조치를 이행하도록 하고 사후적으로는 개인정보보호위원회의 주기적인 관리 및 점검을 통해 개인정보의 안전성을 확보하겠다는 계획이다. 이는 개인정보보호위원회가 올해 6대 핵심 추진과제 중 하나로 세운 AI 시대 개인정보 규율체계 혁신 과제와 궤를 같이 한다. 이미 현행 개인정보 보호법 제15조 제4항은 당초 수집 목적과 합리적으로 관련된 범위 내에서는 안전성 확보 조치를 취하였는지 여부 등을 고려해 정보주체의 동의 없이도 개인정보를 추가적으로 이용할 수 있도록 규정해 두고 있다. 이에 따라 특정 서비스 제공 목적으로 수집한 개인정보를 AI 서비스 개발에 이용하는 행위는 현재도 충분히 가능하다고 판단된다. 개인정보보호위원회 역시 AI 시대 안전한 개인정보 활용 정책방향을 통해 위와 동일한 입장을 표명한 바 있다. 이번 개정안은 주로 기본 서비스 관련 개인정보를 관련이 없는 기타 서비스 개선이나 신규 서비스 개발을 위해 이용하는 경우에 대비한 것으로 이해된다. 다시 말해 다른 서비스나 신규 서비스의 경우 기존 서비스 개선에 비해 정보주체의 예측가능성이 떨어질 것이므로, 이를 위한 AI 개발에 대해서는 보다 엄격하게 개인정보보호위원회의 심의·의결을 요구하겠다는 취지다. 규제의 강도 측면에서 합리적인 규제라고 생각된다. 다만 세부적인 규제 내용은 추가적인 검토를 통해 완성해 나가야 할 것이다. 내년부터 시행 예정인 AI기본법은 이미 일부 AI에 대해 투명성 확보 의무 및 안전성 확보의무를 부과하고 있다. 이에 따라 개인정보 보호법 개정안을 통해 규율되는 투명성 확보 조치와 안전성 확보 조치 역시 단순한 중복 규제에 그치지 않도록 해야 한다. 이를 위해 제도 시행 전부터 부처 간 협력을 통해 각 규제의 유기적인 정착을 도모해야 한다. 향후에는 프라이버시 분야 외에 다른 부처에서도 다른 법안을 통해 AI에 관한 규제를 연이어 도입할 것으로 예상된다. AI와 같이 광범위한 분야에서 사용될 수 있는 기술에 대해 각 부처별로 관심을 갖고 규제를 도입하려는 시도 자체는 어찌 보면 당연한 것이다. 다만 앞서 본 것처럼 AI가 화두로 떠오른다고 해서 각 부처가 무분별하게 중복 규제를 하는 상황은 반드시 피해야 한다. 규제가 필수적이라 하더라도 사전에 별 다른 논의 없이 부처별 규제들이 우후죽순처럼 도입되기만 한다면 수범자 입장에서는 큰 혼란이 초래될 수밖에 없다. 일례로 광고성 정보 전송과 관련한 정보통신망법에 따른 규제와 개인정보 보호법에 따른 규제 역시 과도한 중복 규제로 여기는 여론이 많았다. 두 규제를 통합하려는 시도는 줄곧 있어 왔지만 아직까지 혼란은 이어져 오고 있다. 그 외에 지난 2020년 데이터3법을 통합하려는 시도에도 불구하고 복잡하게 얽힌 문제로 개인정보 보호법과 신용정보법 간의 통합은 무산되었다. 이같이 처음부터 규제가 여러 갈래로 흩어져 있는 상황에서는 중복 규제가 발생할 것이 우려된다. 다만 나중에 이를 다시 주어 담는 통합작업을 하는 것 역시 너무나 어려운 작업임은 그간의 선례에 비추어 볼 때 자명하다. 그렇다고 과도한 중복 규제를 그대로 두는 것은 사업자들에게 짐을 돌리는 것밖에 되지 않는다. 동시에 규제기관 간에 서로 눈치만 보며 상황을 애매하게 방치하는 것 역시 법치국가에서 허용해서는 안 된다. 어려운 시국 속에서도 AI기본법이 극적으로 국회에서 통과된 만큼 이 법안이 누더기 규제가 되지 않도록 제도 도입 초기부터 각 부처 간 원활한 협의를 통해 유기적인 규제 로드맵을 완성하기를 기대해 본다.

2025.02.14 15:41법무법인 태평양 이준호

[AI는 지금] 파리 AI 정상회의 임박…韓, 글로벌 AI 거버넌스 존재감 시험대

'파리 인공지능(AI) 정상회의(AI Action Summit)' 개막을 앞두고 한국 정부와 기업이 글로벌 AI 거버넌스 구축에 기여하기 위해 적극 참여할 예정이다. 다만 탄핵 정국으로 인해 정상급 외교가 부재한 점은 아쉬움으로 남는다. 10일 업계에 따르면 프랑스 파리에서 개막해 이틀간 진행될 AI 정상회의는 80개국 이상이 참석하는 대규모 행사로, AI 안전성과 국제 규범 정립을 주요 의제로 다룰 예정이다. 회의에는 에마뉘엘 마크롱 프랑스 대통령, 나렌드라 모디 인도 총리, JD 밴스 미국 부통령, 딩쉐샹 중국 부총리 등 주요 국가 정상과 오픈AI 샘 알트먼 대표, 구글 순다르 피차이 대표 등 글로벌 기술 기업 대표들이 참석할 예정이다. 이번 회의에서는 AI 안전성 강화, 데이터센터의 에너지 문제, 선진국과 개발도상국 간 AI 기술 격차 해소 등이 중점적으로 논의될 전망이다. 또 글로벌 AI 거버넌스 확립을 위한 국제 기구 설립이 주요 의제로 다뤄질 예정이다. 프랑스 정부는 이 자리에서 AI 산업에 1천90억 유로(한화 약 163조5천억원) 규모의 민간 투자 계획을 발표하며 AI 글로벌 규범 정립에 앞장서겠다는 뜻을 밝힐 것으로 보인다. 회의 개막을 앞두고 마크롱 대통령은 AI 기술을 활용한 딥페이크 영상으로 홍보에 나서 주목을 받았다. 그는 자신의 소셜미디어에 맥가이버, 인플루언서, 코미디 영화 캐릭터 등으로 변신한 합성 영상을 공개하며 "꽤 잘 만들어서 보고 웃었다"고 말했다. 이번 정상회의를 알리는 차원에서 제작된 이 영상은 AI 기술이 미디어와 사회 전반에 미칠 영향을 상징적으로 보여줬다는 평가를 받는다. 한국도 이번 회의에 적극적으로 참여할 예정이다. 정부 측에서는 유상임 과학기술정보통신부 장관, 고학수 개인정보보호위원장, 김명주 AI안전연구소장 등이 대표단을 이끌고 글로벌 AI 거버넌스 논의에 나선다. 특히 AI 안전연구소는 이번 회의에서 영국·일본·싱가포르와 함께 구글과 미스트랄 AI의 모델을 분석해 AI 시스템의 다국어·문화적 취약점을 테스트한 결과를 발표할 예정이다. 연구소는 지난해 11월 설립 이후 영어 기반으로 훈련된 AI 모델이 비(非)서구권 언어와 문화에서 보안 취약점을 가질 수 있다는 점을 고려해 다국어 환경에서의 AI 보안성 문제를 중점적으로 다뤄왔다. 기업 측에서는 삼성전자, 네이버, LG AI연구원이 참가해 AI 기술 개발 및 윤리적 활용에 대한 논의를 이어갈 계획이다. 네이버 최수연 대표, 전경훈 삼성전자 디바이스경험(DX)부문 최고기술책임자(CTO) 겸 삼성리서치 연구소장도 이번 행사에 참석한다. LG AI연구원에서는 배경훈 원장 대신 김유철 전략부문장이 참석해 글로벌 협력과 AI 규범 형성 논의에 힘을 보탤 예정이다. LG 관계자는 "우리는 지금까지 유네스코와 협업하고 서울 AI 정상회의에서도 적극 참여하는 등 국제 사회와 지속적으로 협력해왔다"며 "이번 회의에서도 다른 글로벌 참가자들과 함께 포용적 AI 구축을 위해 노력하겠다"고 밝혔다. 다만 정상급 외교 부재는 아쉬운 대목으로 꼽힌다. 윤석열 대통령이 지난 2023년 이후로 줄곧 AI 3대 강국 도약과 글로벌 디지털 규범 주도를 선언했음에도 불구하고 탄핵 정국으로 인해 이번 정상회의에 참석하지 못하면서 국제 사회에서의 리더십이 약화될 가능성이 제기되고 있기 때문이다. 대통령 권한대행조차 부재해 한국이 주요 논의에서 주도권을 잡기 어려울 것이라는 우려도 나온다. 국내 업계 관계자는 "AI 기술 발전과 거버넌스 논의는 동시에 이뤄져야 하는데 현재 국내 정국이 아쉬운 점이 있다"며 "그럼에도 정부와 기업들이 주어진 여건 속에서 역할을 하기 위해 최선을 다하고 있는 것은 사실"이라고 말했다. 이번 파리 AI 정상회의는 지난 2023년 영국 블레츨리 회의와 지난해 서울 AI 정상회의에 이어 AI 거버넌스 논의의 주요 이정표로 평가된다. AI 기술이 가져올 사회적 변화를 다루는 글로벌 논의가 본격화되는 가운데 한국이 향후 어떤 역할을 할 수 있을지 주목된다. 마크롱 대통령은 회의 개최를 앞두고 "AI는 무법지대가 되어서는 안 된다"며 "우리는 AI 혁명의 중심에 서서 글로벌 규범을 주도해 나갈 것"이라고 강조했다.

2025.02.10 16:58조이환

[영상] 우사인 볼트만큼 빠른 中 로봇 개 '화제'

로봇 산업에서 놀라운 발전을 보여주고 있는 중국이 빠른 로봇 개를 개발해 선보였다고 IT매체 BGR이 최근 보도했다. 중국 로봇 스타트업 '미러 미'(Mirror Me)는 '블랙팬서 2.0'(Black Panther 2.0)이라는 초고속 로봇 개를 개발했다. 이 사족보행 로봇은 10초 안에 100m를 달릴 수 있어 세계에서 가장 빠른 우사인 볼트와 거의 비슷한 속도로 주행할 수 있다. 블랙팬서 2.0의 무게는 38kg, 높이는 0.63m로 그렇게 크고 무겁지 않으나 초당 최대 10.4m로 달릴 수 있어 2009년 세계 선수권 대회에서 초당 10.44m의 세계 기록을 세운 우사인 볼트의 전설적인 속도와 거의 비슷하다. 현재 개발된 사족보행 로봇과 비교하자면, 중국 딥로보틱스의 사족보행 로봇 '링스'(Lynx)는 초당 4.9m의 속도로 달릴 수 있고 2012년 보스턴다이내믹스는 사족보행 로봇 '치타'가 초당 12.6m의 속도로 달리는 것을 시연하기도 했으나 치타 로봇는 더 크고 무거울 뿐 아니라 시장에 출시되지 않았다. 이 로봇은 네 다리에 각각 유연하고 무릎과 같은 관절을 탑재해 역동적이고 민첩하게 달릴 수 있게 개발됐다. 빠른 속도로 관절에 높은 부담을 줄 법도 하나 관절 보호를 위해 강화된 탄소 섬유 구조를 채택해 로봇 개가 높은 속도로 달려도 충격이 덜하다. 머신러닝 등 인공지능(AI) 기술을 통합해 로봇이 다양한 환경 조건에 맞게 로봇의 걸음걸이와 균형을 조정할 수 있도록 했다. 유튜브에 공개된 영상에서 연구진은 움직이는 로봇 개가 다른 속도를 낼 수 있도록 각 다리의 에너지를 필요에 따라 다른 다리로 전달하는 방법에 대해 설명한다. 초고속 로봇견의 자세한 용도는 아직 알려지지 않았으나, 놀라운 속도를 기반으로 보안 순찰이나 위험한 환경 탐색과 같은 분야에서 활용될 가능성이 높다고 해당 매체는 전했다.

2025.02.10 13:36이정현

인터넷기업협회, 13일 개인정보 동의제도 개편 관련 세미나 개최

한국인터넷기업협회가 오는 13일 오후 2시 FKI타워 사파이어홀에서 '개인정보 동의제도 개편이 가지는 의미와 영향력' 세미나를 개최한다. 지난 2011년 개인정보보호법 제정 이후 계약 체결 및 이행을 위해 불가피한 경우 외에는 필수적으로 동의를 받는 관행이 오랜 기간 지속됐으나, 최근 시행된 개인정보 보호법에서는 서비스 이용계약과 관련하여 개인정보를 수집·이용할 때에는 동의 없이 가능하도록 개정됐다. 이에 따라, 지난해 12월 개인정보보호위원회는 '개인정보 처리 통합 안내서(안)'를 공개했으나, 한편으로는 안내서에서 필수동의 자체를 금지하는 것은 법적 근거가 부족하다는 지적이 이어지고 있다. 협회는 개인정보 동의제도의 개편이 가지는 법적 의미와 영향력에 대한 심도 깊은 논의를 위하여 세미나를 마련했다고 설명했다. 이번 행사에서는 법무법인 세종 안정호 변호사가 '개정 개인정보 보호법에 따른 동의제도 개편에 관하여'를, 건국대학교 법학전문대학원 이상용 교수가 '필수동의와 계약 자유의 원칙'을 주제로 발표할 예정이다. 전북대학교 법학전문대학원 김도승 교수가 좌장을 맡아 진행되며, 성균관대학교 법학전문대학원 이승민 교수, 법무법인 인 권창범 변호사, 한국디지털광고협회 곽대섭 팀장, 개인정보보호위원회 임종철 사무관이 토론에 참여한다.

2025.02.06 11:05류승현

[기고] 원본 데이터 AI 활용 특례, 신기술 혁신 속도와 수요 반영해야

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 개인정보보호위원회와 과학기술정보통신부는 지난해 4개 사업자들을 대상으로 자율주행 인공지능(AI) 시스템 고도화를 위한 영상정보 원본을 활용하는 실증특례를 지정했다. 조금 풀어서 설명하자면 자율주행 AI 학습에는 보행자의 얼굴, 위치, 차량번호 또는 개인정보가 포함된 주행영상 등 영상정보가 필요하다. 현행 개인정보 보호법상 AI 학습에 주행영상 등 영상정보를 활용하려면 정보주체의 동의를 받거나 해당 정보를 가명처리해야 한다. 당연히도 전자는 불가능하고 후자의 경우 보행자 인식률이 저하되는 등 정보의 가치가 떨어지게 된다. 이러한 상황을 타개할 수 있는 것이 규제샌드박스 실증특례 제도다. 이 제도는 사업자가 신기술을 활용한 새로운 서비스를 일정 조건 하에 시장에 우선 출시해서 시험, 검증하게끔 현행 규제 일부를 적용하지 않도록 허용해 준다. 사업자들은 이 실증특례 지정을 신청해서 허용받음으로써 강화된 안전조치 기준을 마련하고 개인정보보호위원회의 주기적 점검을 받도록 하는 등을 조건으로 가명처리하지 않은 영상데이터의 원본을 AI 학습에 활용할 수 있게 됐다. 매우 의미 있는 제도임에도 사업자들이 실증특례 제도를 적극적으로 이용하지 못하는 결정적인 이유가 있다. 규제에서 자유로워지는 것이 아니라 최대 4년의 기간 동안만 규제 적용을 유예 받을 뿐이기 때문이다. 유예 기간 내에 법령이 정비돼 관련 규제가 개선되지 않으면 해당 서비스는 다시 '임시허가'를 통해 시장에 출시해야 한다. 심지어는 유예 기간 중 처리해 왔던 방식에 따라 데이터를 처리하는 경우 법 위반으로 출시를 못하게 될 수도 있다. 개인정보보호위원회는 새해 주요 업무 추진계획 6대 핵심 추진과제 중 하나로 AI 시대에 부합하는 개인정보 법제를 정비하겠다고 공표한 바 있다. 그러면서 자율주행 AI 개발 등 가명처리만으로 연구 목적 달성이 곤란한 경우 원본 데이터 활용을 개인정보 심의, 의결 하에 허용하는 특례를 마련하겠다고 발표했다. 이는 현행 규제샌드박스 실증특례는 최대 4년 동안만 규제 적용을 유예해 준다는 한계를 극복하기 위한 조치로, 개인정보 보호법에 특례 규정을 신설해 AI 개발을 위한 원본 데이터 활용을 허용할 방침이다. 더불어 개인정보보호위원회의 심의·의결과 사후 점검 등의 조건을 둬 개인정보 보호도 함께 도모할 계획이다. AI 기반 기술과 시스템이 더욱 빠른 속도로 고도화돼 가고 있는 현 상황에서 AI 학습 목적의 원본 데이터 활용을 금지할 수 없다는 위원회의 결단으로 풀이돼 공감이 간다. 다만 추진계획에 따르면 이러한 내용이 담길 개인정보 보호법 개정안은 AI 개발 사업자의 '정당한 이익'이나 '공익' 등을 고려하도록 하고 있어 오히려 원본 데이터 활용이 예상외로 제약될 가능성이 있어 보인다. 추후 구체적인 개정안을 구체적으로 살펴봐야 하겠으나 신기술의 개발이 아닌 사회적 편익이나 공익을 고려해 특례를 허용할 경우 제도의 취지에도 불구하고 상당수의 AI 개발 사업은 이 특례 제도를 활용하기 어려워질 것이다. 위원회가 심결이나 사후 현장점검 등을 어떻게 운영할지도 특례 제도 활용에 있어서 매우 중요한 요소가 될 것으로 보인다. 우선 위원회가 업무 추진계획에서 밝힌 바와 같이 합리적이고 유연한 법 해석을 통해 신기술 변화와 현행 법 체계 간 간극을 완화하기 위해서는 위원회의 심결이 신속하게 이루어져야 할 것이다. 기존 규제샌드박스 실증특례는 유사 사례가 있는 경우 패스트트랙 제도를 통해 승인 기간을 평균 4~5개월에서 2개월로 단축해 운영하고 있는 상황이다. 심결 이후에도 위원회의 관리, 감독을 통해서도 사후 통제가 가능한 점을 감안할 때 심결은 가급적 간이하고 신속하게 이뤄질 필요가 있다. 위원회의 사후 관리, 감독도 지나치게 포괄적인 범위의 점검이나 자료제출 요구 등이 이뤄지지 않는지 검토가 필요하다. 심결이 간이하게 이뤄진다면 사후통제 기능이 어느 정도 작동해야 하겠으나 AI 개발 사업자 입장에서 사업 운영에 지장이 갈 정도로 관리, 감독 등이 이뤄진다면 사업자로서는 특례 제도를 고려할 실익이 없게 된다. 이 부분은 AI기본법의 제정 과정에서도 유사한 논란이 제기된 바 있다. 원본 데이터를 가명처리 없이 쓰도록 허용해 주는 특례 제도를 도입하더라도 어느 정도의 제한이 부여되어야 한다는 점은 충분히 공감한다. 다만 신기술 및 신산업 혁신 촉진을 도모하기 위해 도입되는 제도인 만큼 AI 개발 사업자들이 특례 제도를 활용할 '엄두'는 낼 수 있어야 한다. 사업자들의 애로와 현실을 충분히 반영한 합리적이고 유연한 법제도의 도입을 기대해 본다.

2025.02.03 10:17법무법인 태평양 상지영

새 학기 맞은 학교, 개인정보 유출 주의보…정부, 5대 지침 발표

새 학기를 맞아 학교 홈페이지 등에서 개인정보 유출 사고가 빈번히 발생한 가운데 정부가 교육기관에 개인정보 보호를 당부했다. 개인정보보호위원회는 신입생·졸업생의 개인정보 관리, 단체 채팅방 자료 점검 등 구체적인 주의 사항을 다섯 가지를 교육기관계 안내했다고 24일 밝혔다. 최근 학급 편성 결과 게시 등에서 불필요한 개인정보가 유출되는 사례가 자주 발생해 이에 대한 대응이 필요하다는 목소리에 대한 조치다. 개인정보위는 신입생 개인정보를 최소한으로 수집하고, 졸업생 개인정보를 즉시 파기하도록 교육기관에 권장했다. 필요 이 정보를 수집하지 않는 것이 개인정보 보호의 출발점이라고 설명했다. 또 학교 홈페이지에 학급 편성 결과를 게시할 때 엑셀 파일의 숨겨진 시트나 열·행에 포함된 불필요한 개인정보를 철저히 점검해야 한다고 강조했다. 엑셀 파일 관리 부주의로 인해 민감한 정보가 유출되는 사고를 방지하기 위함이다. 개인정보위는 학급 단체 채팅방에 개인정보가 포함된 자료를 공유하지 않도록 주의해야 한다는 점도 당부했다. 자료를 전송하기 전 개인정보 포함 여부를 확인하고, 필요 시 자료를 수정하거나 삭제해야 한다고 권장했다. 개인정보가 포함된 서류를 이면지로 사용하지 말고, 불필요한 경우 즉시 파기하라는 당부도 나왔다. 서류 관리 부주의는 개인정보 유출의 주요 원인 중 하나로 꼽히기 때문이다. 개인정보위는 교육기관의 개인정보 담당자 대상 교육도 강화할 계획이다. 실수로 인한 법규 위반 사례를 줄이기 위해 개인정보 취급자의 전문성을 높이는 것이 필요하다는 이유에서다. 개인정보위 강대현 조사총괄과장은 "새 학기를 맞아 교육기관에서 개인정보 유출 사고가 발생하지 않도록 각별한 주의가 필요하다"며 "교육기관과의 협력을 통해 개인정보 보호 체계를 더욱 강화하겠다"고 밝혔다.

2025.01.24 15:56김미정

SK스토아·동행복권, 개인정보 유출로 과징금 19억원

정부가 SK스토아와 동행복권서 발생한 대규모 개인정보 유출 사고와 관련해 총 19억4천280만원 과징금과 과태료를 부과하고 해당 사실을 공표하기로 의결했다. 개인정보보호위원회는 지난 22일 서울정부청사에서 제2회 전체회의를 열고 SK스토아와 동행복권에 대한 처벌 조치를 이같이 결정했다고 24일 밝혔다. SK스토아는 크리덴셜 스터핑 공격을 받아 약 12만5천명 개인정보를 유출한 것으로 밝혀졌다. 동행복권의 경우 비밀번호 변경 기능의 보안 취약점이 악용돼 약 75만명 개인정보가 빠져나갔다. SK스토아의 경우 신원 미상 해커가 지난해 11월 14일부터 21일까지 국내외 14개 아이피를 통해 총 4천400만건 넘는 로그인을 시도한 끝에 12만5천개 계정에 접근한 것으로 드러났다. 이 과정에서 비밀번호가 암호화되지 않은 상태로 전송된 사실도 추가로 확인됐다. 동행복권에서는 지난해 11월 4~5일까지 해커가 사전에 확보한 회원 아이디를 활용해 비밀번호 변경 기능의 보안 취약점을 악용했다. 인증되지 않은 아이디로 비밀번호를 임의로 변경한 뒤 계정에 접근해 약 75만명의 개인정보를 유출한 것으로 밝혀졌다. 개인정보위는 SK스토아에 과징금 14억3천200만원과 과태료 300만원을, 동행복권에 과징금 5억300만원과 과태료 480만원을 부과했다. 두 회사 모두 홈페이지에 이 사실을 공표하도록 명령받았다. SK스토아는 사고 이후 보안 정책을 강화하고 유출된 계정 초기화와 로그인 방식 변경을 실시했다. 동행복권도 누리집을 임시 폐쇄한 후 비밀번호 초기화와 취약점 개선을 진행하며 추가적인 보안 대책을 마련했다. 고학수 개인정보위 위원장은 "최근 크리덴셜 스터핑 등 해킹 공격이 빈번해지는 만큼 이상행위 탐지, 차단 조치 등 보안 대책을 강화해야 한다"며 "이용자 인증 관련 취약점 점검에도 각별히 주의할 필요가 있다"고 강조했다.

2025.01.24 08:18김미정

"예산 4억으로 이겼다"…개인정보위, 구글·메타와 붙은 1400억 싸움 승소

구글과 메타가 개인정보보호위원회 상대로 제기한 시정명령·1천억원대 과징금 취소 소송에 대해 서울행정법원이 전부 기각했다. 개인정보보호위원회는 구글·메타의 사용자 행태정보 수집·이용 관련 행정소송에서 승소했다고 23일 밝혔다. 개인정보위는 2021년 2월부터 구글과 메타의 맞춤형 광고 관련 개인정보 처리 실태를 조사해 왔다. 2022년 9월에 구글과 메타가 이용자 동의 없이 다양한 온라인 활동 기록을 수집해 맞춤형 광고에 활용한 사실에 대한 시정명령과 함께 구글에 692억원, 메타에 308억원을 각각 부과했다. 당시 조사 결과 구글은 개인정보 수집 동의 과정을 '옵션 더보기'에 숨겼으며 동의를 기본값으로 설정해 진행한 것으로 밝혀졌다. 메타는 694줄에 달하는 관련 내용을 한 화면에 5줄만 보이도록 구성해 이용자 동의를 받은 사실이 드러났다. 구글과 메타는 "개인정보 수집 주체는 웹사이트나 앱 운영 사업자"라며 "개인정보 처리방침 등을 통해 적법하게 동의를 받았다"고 주장했다. 이후 2023년 2월 서울행정법원에 소송을 제기했다. 반면 개인정보위는 "구글과 메타가 제공하는 서비스에 가입한 이용자의 웹사이트 방문 정보와 앱 사용 정보를 추적‧수집해 맞춤형 광고에 활용했다"며 "해당 기업들은 이용자 동의를 받아야 한다"고 주장했다. 또 유럽연합(EU)과 미국 등 다른 국가에서도 유사한 제재를 받은 사례를 근거로 설명했다. 이에 서울행정법원은 구글과 메타 청구를 전부 기각했다. 법무부는 "이번 판결은 다국적 기업으로부터 국민의 권리를 지켜낸 기념비적 사례"라며 "앞으로도 국제소송에서 국민과 국익을 수호하기 위해 다각적인 법률 지원을 지속하겠다"고 밝혔다. 최근 늘어난 개인정보 관련 소송이 증가하면서 글로벌 기업은 국내 대형 법무법인을 소송대리인으로 선임해 소송에 대비해 왔다. 반면 개인정보위는 지난해 소송수행 예산이 4억원에 그친 것으로 전해졌다. 올해 소송 예산도 4억원으로 동결됐다. 이에 업계에선 이번 1심 승소가 소송 예산 4억원으로 이룬 것을 긍정적으로 평가하고 있다. 개인정보위 이정렬 사무처장은 지난해 브리핑에서 "늘어난 소송에 대비하기 위해 올 3월 단기적으로 송무팀을 꾸리고 장기적으로는 빅테크 전담 변호사와 회계사를 구축할 것"이라며 "현재 공무원 4급에 해당하는 전문가를 팀장으로 영입한 상태"라고 밝힌 바 있다. 개인정보위는 "이번 판결이 구글과 메타의 맞춤형 광고 관련 동의 의무 위반 처분이 정당했음을 입증했다"며 "대규모 플랫폼 사업자의 개인정보 보호 책임을 명확히 한 중요한 사례"라고 평가했다. 이어 "인공지능(AI) 데이터 사회가 확산되는 가운데 국민의 개인정보 자기결정권을 충실히 보장하기 위해 더욱 노력할 계획"이라고 덧붙였다.

2025.01.23 15:21김미정

카카오페이·애플, 동의 없이 4천만명 개인정보 해외로…과징금 '84억' 철퇴

정부가 카카오페이와 애플의 국외 이전 규정 위반 건에 과징금을 부과했다. 카카오페이는 전체 이용자 약 4천만 명의 개인정보를 이용자 동의 없이 애플에 제공했고, 애플 역시 알리페이를 통해 해당 정보를 처리하면서 이용자들에게 이를 알리지 않은 사실이 드러났기 때문이다. 개인정보보호위원회는 지난 22일 서울정부청사에서 제2회 전체회의를 열고 개인정보보호법상 국외 이전 규정을 위반한 카카오페이에 과징금 59억6천800만원, 애플에 과징금 24억500만원과 과태료 220만원을 부과하기로 결정했다고 23일 밝혔다. 개인정보위는 카카오페이가 전체 이용자 약 4천만 명의 개인정보를 이용자 본인 동의 없이 애플의 서비스 이용자 평가 목적으로 제공했다고 발표했다. 애플은 제3국 수탁자인 알리페이를 통해 개인정보를 국외로 이전·처리한 사실을 이용자에게 알리지 않은 것으로 드러났다. 그동안 카카오페이는 사용자가 애플에서 서비스를 구입할 때 결제 데이터를 알리페이에 전송했다. 애플은 알리페이가 받은 정보를 가지고 이용자의 NSF 점수(Non Sufficient Funds Score)를 산출하거나 결제를 진행했다. 이에 결제 정보는 카카오페이, 알리페이, 애플 순으로 전달된 것이다. 이 과정에서 이용자 동의 없이 개인정보가 국외 이전됐으며 이를 이용자가 인지하지 못한 사실이 밝혀졌다. NSF 점수는 애플 서비스 내 여러 소액결제를 한 건으로 묶어 일괄 청구할 때 자금부족 가능성을 판단하기 위한 고객별 점수다. 쉽게 말해 결제 금액이 부족할 가능성이 얼마나 높은지 알려주는 점수다. 애플은 이 정보로 사용자가 결제를 못 할 가능성이 있다고 판단되면 결제를 막거나 다른 조처를 취했다. 카카오페이, 4천만 명 개인정보 동의없이 국외 이전 카카오페이는 애플 내 결제시스템 통합 서비스를 제공하는 알리페이 중계를 통해 결제정보를 애플에 전송해 왔다. 애플은 NSF 점수 산출을 포함한 결제 처리에 있는 개인정보 처리 업무를 알리페이에 위탁했다. 카카오페이는 애플 수탁사인 알리페이가 NSF 점수 산출 모델 구축을 할 수 있도록 전체 카카오페이 이용자 개인정보를 2018년 4~7월간 총 3회에 걸쳐 동의 없이 알리페이에 전송한 것으로 드러났다. 구체적으로 2019년 6월 27일부터 20924년 5월 21일까지 매일 알리페이가 이용자별 NSF 점수를 산출할 수 있도록 카카오페이 전체 이용자 4천만 명 개인정보를 동의 없이 알리페이에 보냈다. 카카오페이는 애플 이용자뿐 아니라 애플 미이용자까지 포함한 전체 이용자 정보를 알리페이에게 전송했다. 카카오페이 전체 이용자 중 애플이 카카오페이를 결제 수단으로 등록한 이용자는 20% 미만에 불과하다. 개인정보위 전승재 조사3팀장은 이날 브리핑에서 "카카오페이가 애플의 NSF 모델 구축과 점수 산출을 위해 전체 이용자의 개인정보를 동의 없이 애플에 제공했다"며 "개인정보위는 해당 행위를 적법 처리 근거 없는 국외 이전으로 판단했다"고 설명했다. 이에 개인정보위는 카카오페이에 과징금 59억6천800만원을 부과하고 국외 이전 적법 요건을 갖추도록 시정명령했다. 또 홈페이지에 관련 사실 공표도 명령했다. 애플, 개인정보 국외 이전 사실 미공표 애플은 알리페이를 통해 NSF 점수를 계산하고 있다는 사실을 이용자들에게 알리지 않은 것으로 밝혀졌다. 이 과정에서 개인정보가 국외로 이전되고 있다는 사실도 공표하지 않았다. 알리페이는 매일 카카오페이로부터 전체 이용자 정보를 자동 전송받아 이용자별 NSF 점수를 산출했다. 이를 통해 이용자의 NSF 점수를 애플에 전송했다. 애플은 이 과정에서 개인정보를 국외로 처리·위탁하면서 국외 수탁자 등을 개인정보처리방침 등을 통해 정보 주체에게 공개하거나 고지 않은 것으로 밝혀졌다. 이에 개인정보위는 애플에게 과징금 24억500만원을, 위탁 사실을 밝히지 않은 행위에 대해 과태료 220만원을 부과했다. 개인정보 처리 수탁자 알리페이에 대한 국외 이전 사실을 개인정보처리방침 등에 공개하도록 시정명령했다. 또 애플 홈페이지에 관련 사실을 공표하도록 명령했다. 개인정보위는 알리페이에 NSF 점수 산출 모델을 파기하도록 시정명령했다. 전승재 팀장은 "알리페이가 구축한 카카오페이 이용자의 NSF 점수 산출 모델은 위법하게 제공·국외 이전된 개인정보를 활용해 구축된 것"이라며 "개인정보 침해 상태를 근본적으로 해소하기 위함"이라고 설명했다. 전 팀장은 "최근 글로벌 플랫폼 서비스 확대로 개인정보 국외 이전이 늘어난 상황에서 개인정보 국외 이전 범위를 명확히 하고 사업자가 국외 이전 적법 요건을 반드시 준수해야 함을 재확인한 점에서 의의가 있는 조치"라고 말했다. 이어 "사업자는 개인정보 국외 이전에 수반되는 서비스 제공 시 정보 주체의 동의를 별도로 받거나 국외 수탁자에게 개인정보 처리를 위탁할 경우 개인정보처리방침 등을 통해 개인정보가 국경을 넘어 이전되는 사실을 알려야 한다"고 강조했다. 또 그는 "개인정보 처리를 위부에 위탁할 경우 위탁자가 정보 주체에 대한 책임을 부과해야 한다"며 "위탁자 책임 영역을 떠나 제3자 책임 영역으로 개인정보를 이전하는 것은 제3자 제공에 해당하므로 정보 주체 동의 등 적법 근거를 구비해야 한다"고 덧붙였다.

2025.01.23 12:00김미정

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

"요금 올리거나, 무료 풀거나"…OTT, 전략 분화

"책 대신 '아이패드'로 수업을"…디지털이 바꾼 교실 풍경은

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

[ZD브리핑] 아시아 IT 박람회 컴퓨텍스 개최...21대 대선 후보 첫 토론회

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현