• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 개인정보보호'통합검색 결과 입니다. (3건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[신년 인터뷰] "AI 역기능 막는 기술 확보가 국가 경쟁력 좌우"

글로벌 경제 위기 속에서 올해 인공지능(AI) 산업은 다시 한 번 중대한 분기점에 섰다. 생성형 AI의 급격한 확산 후 이어진 성능 경쟁과 투자 열풍은 이제 '얼마나 더 큰 모델을 만들 수 있는가'라는 질문을 넘어 'AI가 실제 무엇을 할 수 있는가'라는 보다 본질적인 문제로 이동하고 있다. 지디넷코리아는 릴레이 인터뷰를 통해 각기 다른 위치에서 AI 산업을 바라보는 리더 시선을 종합해 올해 AI 산업이 어디로 향하고 있는지, 무엇을 준비해야 하는지를 짚어본다. 기술 낙관과 과도한 불안 사이에서 AI의 현실적인 진화 경로와 산업적 의미도 살펴본다. [편집자주] "인공지능(AI)이 자율주행과 로봇, 에이전트 시스템으로 진화하면 우리가 지금까지 경험하지 못한 새로운 위험을 만들어낼 수 있습니다. 기술 개발뿐 아니라 안전성과 보안, 역기능 대응을 위한 투자가 반드시 병행돼야 하는 이유입니다. 안전과 통제를 처음부터 내재화한 AI 시스템을 설계하는 것이 국가 경쟁력 측면에서도 중요합니다." 성균관대 우사이먼성일 소프트웨어학과·인공지능대학원 교수는 지디넷코리아와 만나 AI 발전과 함께 커지고 있는 기술 안전성 문제를 이렇게 진단했다. 우 교수는 AI 기술 부작용을 최소화할 방법을 연구하는 학자다. 개인정보 침해와 허위 정보 생성, 저작권 문제, 범죄 악용 등 AI 확산으로 인해 나타나는 사회 위험을 기술적으로 통제하는 데 연구 초점을 맞추고 있다. 가장 대표 연구 분야는 머신 언러닝을 이용한 개인정보 보호 기술이다. 머신 언러닝은 AI 모델이 학습한 특정 데이터를 선택적으로 삭제할 수 있도록 하는 기술이다. 보통 모델이 학습 과정에서 방대한 정보를 내부에 저장하지만, 어떤 정보가 어떤 결과에 영향을 미쳤는지 알기 어렵다. 이에 개인이 자신의 개인정보를 삭제해 달라고 요구해도 기존 AI 모델에서는 이를 정확히 반영하기가 거의 불가능하다. 머신 언러닝은 이 문제를 해결하기 위한 기술이다. 최근 그는 이를 실제 개인정보 보호에 적용할 수 있도록 기술을 업그레이드했다. 기존 방식은 특정 데이터를 삭제하기 위해 해당 데이터를 제외한 나머지 데이터로 모델을 재학습해야 했다. 이는 초거대 AI 모델 환경에서 시간·비용 측면에서 사실상 불가능하다. 그는 "기존 언러닝 기법은 연구실에선 가능했지만 실제 서비스에 적용하기에 매우 비효율적"이라고 주장했다. 우 교수 연구팀은 이 문제를 해결하기 위해 새 접근법을 제시했다. 핵심은 원본 데이터를 보관하지 않아도 모델 성능과 삭제 정확도를 동시에 유지하는 방식이다. 이에 원본 데이터를 보관하거나 재학습을 별도로 진행하지 않아도 모델 성능을 유지할 수 있다. 그는 "원본 데이터 대신 통계적으로 유사한 합성 데이터를 생성·활용해 한계를 극복했다"고 강조했다. 그는 삭제 대상 데이터가 다른 데이터와 섞여 변형된 경우에도 제거 가능하다고 설명했다. 그는 "실제 데이터는 단독 존재하지 않고 여러 문장이나 문서, 다른 데이터와 연결돼 학습된다"며 "이를 그래프 구조로 표현하면 어떤 정보가 다른 정보에 어떻게 영향 미쳤는지 추적할 수 있다"고 말했다. 그러면서 "특정 이름이나 문장, 파생 정보까지 한 번에 제거할 수 있는 이유"라고 덧붙였다. 이 연구 성과는 지난해 12월 미국 샌디에고 컨벤션 센터에서 열린 국제 AI 분야 학회 NeurIPS(Neural Information Processing systems)에 발표됐다. 이 연구는 올해 과학기술정보통신부 재원과 정보통신기획평가원(IITP) 지원으로 추진 중이다. 연구 과제명은 '개인정보보호 관련 정책 변화를 유연하게 반영하여 준수하는 AI 플랫폼 연구 및 개발'이다. 우 교수는 해당 기술이 향후 기업과 정부 시스템에도 유용할 수 있을 것으로 봤다. 그는 "기업은 고객 개인정보나 저작권 있는 문서·이미지, 책 내용을 AI 모델에 학습시키기만 하면 된다"며 "삭제 요청이 들어오면 이를 기술적으로 반영하면 된다"고 설명했다. 그는 현재 여러 국내 기업과 협력해 챗봇이나 검색, 문서 분석, 법률 AI 등 서비스에 해당 기술을 적용하는 연구를 진행하고 있다. 그는 "개인정보나 저작권 삭제 요구가 많은 분야일수록 실무적 가치가 큰 기술"이라며 "언러닝 성능을 AI 안전성 평가 지표로 활용하는 방안도 고려 중"이라고 덧붙였다. 우 교수는 이달 시행될 국내 AI기본법과 연구 성과가 깊이 연결될 것으로 내다봤다. 그는 "그는 유럽 일반정보보호규정(GDPR)처럼 한국 AI기본법은 개인의 데이터 삭제 권리를 보장하는 것이 필수일 것"이라며 "우리 방식은 이런 법적 요구를 실제 AI 모델에 기술적으로 반영할 수 있는 현실적 해법"이라고 강조했다. "딥페이크도 '문맥'으로 잡아야"...기술력 전 세계 2위 기록 우 교수는 딥페이크 감지 기술 분야에서도 활발한 연구를 이어가고 있다. 특히 최신 생성형 AI가 만들어내는 새로운 형태의 딥페이크까지 탐지하는 기술 개발에 주력하고 있다. 그는 현재 다수 딥페이크 탐지 모델 성능이 최신 AI 기술을 따라가지 못하는 점을 꼬집었다. 모델 학습에 사용된 데이터와 실제 딥페이크 확산 형태가 다르다는 점을 근본 원인으로 짚었다. 그는 "최신 AI가 만드는 딥페이크는 기존 데이터와 특성이 전혀 다르다"며 "탐지 모델 성능이 실제 환경에서 급격히 떨어질 수밖에 없다"고 말했다. 우 교수 연구팀은 이런 문제를 해결하기 위해 새 방법론을 적용한 딥페이크 탐지 모델을 제시했다. 연구팀은 'DINO'와 'CLIP-ViT' 계열 모델로 이미지와 텍스처, 의미적 패턴을 폭넓게 이해할 수 있는 모델을 구축했다. DINO는 대규모 웹 데이터 기반으로 사전 학습된 모델이다. CLIP-ViT는 텍스트와 이미지 간 의미 관계를 학습한 모델이다. 연구팀은 이를 딥페이크 탐지에 맞게 재학습해 이미지 백본으로 활용했다. 이후 이 모델 위에 딥페이크 전용 어댑터 모듈도 추가했다. 이에 모델은 영상과 이미지에 포함된 미세한 위조 흔적까지 포착할 수 있다. 우 교수는 해당 모델이 단순 이미지 분류를 넘어서 의미론적 개념을 이해하도록 설계된 것을 핵심 기능으로 제시했다. 그는 "이 모델은 특정 유형 딥페이크에 과적합 되지 않는다"며 "여러 위조 콘텐츠를 안정적으로 탐지할 수 있다"고 설명했다. 해당 연구는 지난해 과기정통부 재원으로 IITP 지원을 받아 '디지털역기능대응기술개발'사업으로 수행됐다. 사업명은 '악의적 변조 콘텐츠 대응을 위한 딥페이크 탐지 고도화, 생성 억제, 유포 방지 플랫폼 개발'이다. 해당 모델로 성과도 얻었다. 지난해 국제 컴퓨터비전 학술대회(ICCV)가 주최한 딥페이크 탐지 'SAFE 챌린지'에서 이탈리아 나폴리대 연구팀에 이어 전 세계 2위를 기록했다. 또 지난해 성균관대와 한국정보과학학회가 공동 주최한 '성균관대x한국정보과학학회 딥페이크 경진대회'에서 대상과 우수상을 각각 수상했다. 우 교수는 향후 딥페이크 연구 방향도 제시했다. 그는 "실제 환경에 가까운 조건에서 모델을 연구·평가할 것"이라며 "특히 메신저와 소셜미디어(SNS) 환경처럼 저화질·압축 영상이 많은 환경서도 안정적으로 딥페이크를 탐지할 수 있는 모델을 구축할 것"이라고 덧붙였다.

2026.01.14 15:36김미정 기자

"에이전틱 AI, 개인정보보호에 새 위협"

인공지능(AI) 핵심으로 떠오른 '에이전틱 AI'의 개인정보보호 문제가 서울 하얏트 호텔에서 열린 '47차 GPA(Global Privacy Assembly) 총회'에서 다뤄졌다. 우리나라를 비롯해 미국, 유럽연합(EU), 영국, 프랑스, 독일, 일본 등 95개국 148개 개인정보 감독기관이 참여한 '47차 GPA 서울 2025' 행사에서 17일 오전 9시 30분부터 1시간 동안 '에이전틱 AI와 개인정보보호'를 주제로 전문가들 패널 토의가 열렸다. 임용 서울대 교수가 좌장을 맡았고, 영국 개인정보보호 감독기관 ICO(Information Commissioner's Office)의 존 에드워드(John Edwards) 위원장을 비롯해, 줄스 폴리네스키 Future of Privacy Forum(FPF) 최고경영자(CEO)가 패널로 참석했다. 케이트 칼렛(Kate Charlet) 구글 프라이버시·안전·보안 디렉터와 김유철 LG AI연구원 전략실장도 함께 자리했다. 패널들은 에이전틱 AI가 개인정보에 어떤 영향을 미치는지, 새로운 위험이나 취약점을 무엇인지에 대해 논의하고, 어떻게 대응해야 하는지도 모색하는 시간을 가졌다. 이들은 에이전틱 AI에 대해 단순 생성형AI와 달리 스스로 계획·추론·실행하는 자율적 시스템을 기반으로 한 AI라고 정의하며, 목표 지향적이며 여러 도구와 시스템을 넘나들며 작동하고 있다고 설명했다. 줄스 폴리네스키 FPF CEO는 "현재 데이터 보호 체계가 여전히 예전 웹 사이트와 쿠키 동의, 약관 등에 맞춰져 있다"며 "에이전틱 AI는 이런 서비스를 넘나들며 데이터를 주고받고 전략을 실행하는데, 이런 모델에서는 목적 제한 원칙과 같은 기존 규범을 어떻게 적용할지가 핵심 과제"라고 짚었다. 에이전틱 AI가 사용되면서 편의성을 높아졌지만 데이터 보호 체계는 아직 과거 방식에 머물러 있기 때문에 새로운 위협이 될 수 있다는 것이다. 이에 에이전틱 AI의 선두 기업인 구글과 LG AI연구원 측은 자사 에이전틱 AI가 어떻게 개인정보를 보호하고 있는지 실제 적용 사례에 대해 소개했다. 특히 김유철 LG AI연구원 전략실장은 "에이전틱 AI는 자율적으로 모델을 발전시키고 계획을 세우며 목표를 위해 행동하는 AI 시스템"이라며 "LG AI연구원에서는 '넥서스(Nexus)'라는 프로젝트를 진행 중인데, AI 교환 과정에서 데이터를 스캔하고 저작권 문제를 탐지·중재하는 에이전트를 개발하고 있다"고 말했다.

2025.09.17 16:45김기찬 기자

AI 기업 플리토, 음성 데이터 활용 검토 위해 로펌 3곳 찾아간 이유는?

"지금 인공지능(AI)은 사회 전반에 걸쳐 변화를 촉진하는 핵심 동력으로 자리 잡고 있습니다. 동시에 데이터 활용을 둘러싼 법적 유기적 과제도 점점 더 복잡해지고 있습니다. 앞으로 데이터를 어떻게 안전하게 보호하고 활용하면서도 개인 정보와 기본권을 잘 지킬 수 있을지에 대해 정부와 학계, 산업계가 같이 고민하면서 해결책을 찾아야 우리나라 AI 경쟁력도 성장할 수 있을 것입니다." 조경식 법무법인 태평양 고문은 지난 10일 오후 서울 종로구에서 'AI G3 시대, 안전한 데이터 활용을 위한 패러다임의 전환'을 주제로 진행된 고객 초청 세미나를 통해 이처럼 강조했다. 최근 이재명 정부에서 'AI 3대 강국(AI G3)' 도약을 목표로 AI 정책과 사업을 쏟아내고 있는 동시에 각 기업들이 AX(AI 전환) 도입에 대한 고민을 하고 있지만, 국내 데이터의 정책과 활용법은 정작 명확치 않다는 판단에서다. 데이터는 현대 비즈니스의 핵심 자산으로, 업계에선 이를 효과적으로 활용하는 기업이 시장에서 경쟁 우위를 차지할 수 있다고 본다. 특히 AI 시대를 맞아 데이터가 기술 개발의 필수 요소로 자리 잡으면서 관련 시장도 빠른 속도로 커지고 있다. 11일 과학기술정보통신부와 한국데이터산업진흥원(KDATA)이 발간한 '데이터 산업 현황 조사' 보고서에 따르면, 국내 데이터 산업 시장 규모는 지난 2023년 27조1천513억원에서 매년 12.7%씩 성장해 오는 2028년에는 49조원을 넘어설 것으로 전망됐다. 또 양질의 데이터를 얼마나 잘 확보하느냐에 따라 AI 경쟁력이 갈린다는 점에서 데이터를 제대로 정제해 활용할 수 있는지에 대한 관심도 점차 커지고 있다. 하지만 우리나라에선 AI 학습 과정에서 데이터를 활용하는 데 '저작권'과 '개인정보 규제'가 성장의 걸림돌로 작용하고 있다. 또 산업별로 서로 다른 데이터 규제가 적용되고 있다는 점도 기업들의 혼란을 가중시키고 있다. 특히 개인정보보호법은 여전히 '사전동의'라는 단일 축에 과도하게 의존하고 있다. 그러나 AI 개발 과정에서 데이터의 목적을 사전에 특정하는 것은 거의 불가능할 뿐만 아니라 기술적으로도 활용하기 쉽지 않다는 지적을 받고 있다. 새로운 AI 서비스가 만들어질 때마다 일일이 구체적인 동의를 다시 받아야 한다는 점도 한계점으로 꼽힌다. 이에 몇 차례 개정을 통해 개인정보 처리 근거 규정을 도입했지만 적용 범위와 기준이 불명확하다는 평가를 받고 있다. 또 법원에서도 빠르게 변화는 기술 환경을 이해하지 못하고 개인정보보호법을 엄격하게 해석하는 분위기라는 점에서 기업들이 데이터를 제대로 활용하기 어렵다는 분석이 나오고 있다. 법무법인 태평양 고객 초청 세미나에서 'AI 발전을 위한 데이터 체계의 보완 필요성'을 주제로 발표한 이정수 플리토 대표는 "최근 미국 기업이 우리 회사에 개개인의 음성 데이터를 모아 달라고 말하며 80억원 규모의 거래 제안을 했었다"며 "음성 데이터가 개인 생체 정보여서 민감도가 높아 로펌 3곳에 법적 검토를 받았더니 해석이 다 달랐다"고 말했다. 이어 "로펌도, 우리 같은 데이터 기업들도 요즘 데이터를 활용할 때 어떤 규제가 적용되는지에 대해 명확히 알 수 있는 방법이 없어 고민이 많다"며 "국가 차원에서 정확하게 데이터 활용 가이드라인을 알려줘야 기업들이 혼란 없이 활용할 수 있을 뿐 아니라 AI 산업을 발전시키는 데 도움이 되지 않을까 싶다"고 덧붙였다. 또 이 대표는 국내 데이터 시장이 ▲언어 자원의 부족 ▲대기업·플랫폼 중심의 데이터 편중 ▲법·제도 불확실성 등의 문제로 성장이 더디다고 분석했다. 특히 영어 대비 한국어 데이터 규모가 현저히 적은 데다 구어·전문분야 데이터가 부족하고 방언·다문화 언어 데이터가 거의 없다는 점을 아쉬워 했다. 또 기관 간 데이터 연계 부재, 스타트업·중소기업의 데이터 접근 불가, 저작권 경계 불명확에 따른 학습 데이터 활용 제약, 명확한 가이드라인·샌드박스 제도 부재 등을 하루 빨리 개선해 나가야 한다고 주장했다. 이 대표는 "우리나라의 정서가 담긴 '소버린 AI'를 구축해야 한다는 목소리가 커지고 있는 상황에서 데이터와 관련된 제도들이 하루 빨리 개선되지 않는다면 주권 자체가 상당히 위협 받는 상황이 생길 수 있다"며 "데이터 산업 발전을 저해하는 요소들을 없애기 위해 법적, 제도적으로든 해결책이 조속히 마련될 수 있길 바란다"고 피력했다. 이후 발표에 나선 이수화 법무법인 태평양 변호사는 개인정보 적법처리를 근거로 AI를 어떻게 활용해야 할 지에 대한 가이드를 제시했다. 개인정보보호법 제15조에 따르면 ▲정보주체의 동의 ▲계약의 이행 등을 위해 필요 ▲정보처리자의 정당한 이익 ▲법률 규정 법령상 의무 ▲공공기관의 업무 ▲급박한 생명·신체 이익 ▲공공의 안전과 안녕 등 적법처리 근거를 갖춰야 AI 학습에 개인정보를 활용할 수 있도록 규정돼 있다. 이 변호사는 "AI 시스템 개발을 위한 3요소를 요리에 비유하자면 식재료가 데이터, 알고리즘이 레시피, 컴퓨팅파워는 조리기구라고 볼 수 있다"며 "양질의 충분한 데이터가 없으면 다른 것들이 구현되기 어려운데 국내 정부 정책과 대중적 관심은 부족한 게 현실"이라고 짚었다. 이어 "기존 법체계는 지나치게 경직돼 있어 혁신을 따라가지 못하는 데다 경계가 모호해 실무에서 데이터를 제대로 활용하기 어려울 때가 많다"며 "최근 국회와 정부가 규제 완화 흐름에 나서고 있다는 점은 긍정적"이라고 평가했다. 그러면서 "최근 공개된 AI기본법 시행령 초안에서도 데이터 지원 사업 내용이 상당히 구체화됐다는 점은 AI와 데이터가 상당한 연관 관계가 있다고 인지한 것으로 보인다"며 "이를 토대로 앞으로 데이터를 얼마나 잘 활용할 수 있을지 기대된다"고 덧붙였다. 이 변호사는 최근 발의된 개인정보보호법 개정안들도 규제 완화 흐름의 또 다른 예로 짚었다. 올 초 더불어민주당 민병덕 의원과 국민의힘 고동진 의원이 발의한 이 법안들은 AI의 기술 개발, 성능 개선을 위해 원본 데이터를 학습데이터로 정보주체의 동의없이 활용할 수 있도록 하는 것이 골자다. 이 변호사는 "이 조항들이 시행되면 기업들이 새로운 AI 모델을 개발할 때마다 별도의 동의를 다시 받지 않아도 될 것"이라며 "규제는 완화되지만, 개인정보 침해 우려가 커질 수 있다는 점에서 기업들도 관심을 갖고 이런 부분을 수시로 체크해 봐야 할 것"이라고 조언했다. 이 변호사는 기업들이 AI 서비스를 개발할 때 개인정보 관련 적법성 여부를 판단하기 어려울 때 '사전적정성 검토제'와 '규제 샌드박스'도 적극 활용할 것을 제안했다. 또 AI를 도입할 때 ▲AI 서비스 이용 계약 ▲특별 보호가 필요한 개인정보 처리 ▲임직원·고객향 이용 가이드 마련 등을 체크해볼 것을 권유했다. 그는 "기업들은 사생활을 현저히 침해할 우려가 있는 정보나 주민등록번호 등 고유식별정보, 14세 미만 아동의 개인정보, 휴대전화번호 등을 노출하는 것에 대해 별도 동의나 사전학습단계에서 삭제하는 방안을 충분히 살펴봐야 한다"며 "AI 서비스를 활용할 때도 국외 이전 위험은 없는지, 기업 기밀을 학습용 데이터로 활용하거나 데이터가 귀속되는지 등에 대한 부분을 계약서 작성 시 면밀히 봐야할 것"이라고 강조했다. 그러면서 "자체 검토가 힘들 때는 '개인정보보호·AI팀'을 운영하고 있는 우리처럼 로펌에게 자문을 요청하는 것도 도움이 될 것"이라고 덧붙였다. 이날 세미나에 참석한 최장혁 개인정보보호위원회 부위원장은 "현재 AI 사업과 관련해 저작권과 개인정보보호법이 가장 논의의 중심에 서 있는 듯 하다"며 "올 초 AI기본법이 통과된 후 중국 '딥시크 쇼크'까지 일어나면서 이에 대한 고민이 더 많아진 것 같다"고 강조했다. 이어 "규제 샌드박스 등을 통해 데이터를 활용할 수 있는 문턱을 낮추고자 했음에도 AI 발전을 막는 주범으로 꼽힐 때가 있는 듯 하다"며 "우리나라뿐 아니라 전 세계 각국 감독기관이 AI 시대를 맞아 프라이버시에 대해 함께 방향성을 고민해봐야 할 듯 하다"고 덧붙였다.

2025.09.11 12:22장유미 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

다이가 다르다...삼성·SK, 차세대 HBM '두뇌' 로직다이서 엇갈린 전략

넷플릭스 BTS 광화문 공연 생중계 '명과 암'

[현장] 둘다 보급형인데…아이폰17e보다 '맥북 네오'에 쏠린 눈

[종합] 공공시스템 2030년까지 클라우드 전면 전환…변수는 예산·부처 협력

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.