• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'법무법인태평양'통합검색 결과 입니다. (4건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[기고] 인공지능을 규율한다는 것의 의미

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 새로운 기술을 다루는 법은 언제나 늦거나 빠르다. 너무 늦으면 이미 현실을 따라잡지 못하고, 너무 빠르면 아직 정의되지 않은 위험을 과도하게 상정하게 된다. 인공지능(AI)을 둘러싼 최근 제도 설계 역시 이 오래된 딜레마 위에 놓여 있다. 현재 작동 중인 AI 관련 기본 규범은 즉각적인 통제를 목표로 하기보다 일정 기간 제도의 작동 가능성을 점검하는 방식을 선택했다. 이는 단순한 행정 편의나 정치적 타협 결과로 보기 어렵다. 오히려 기술 특성을 전제로 한 선택에 가깝다. AI는 고정된 제품이 아니라 학습과 적용을 통해 끊임없이 성격이 변하는 체계라서다. 이런 기술을 전통적인 규제 방식으로 포섭하면 규범은 곧바로 현실과 어긋날 위험을 안게 된다. 무엇이 위험한지, 누가 책임을 져야 하는지, 어느 단계에서 개입해야 하는지에 대한 사회적 합의가 아직 충분히 축적되지 않은 상태에서 강한 집행을 전제로 한 규칙을 설계하는 것은 오히려 혼란을 키울 수 있다. 문제는 이 과도기가 '아무 일도 하지 않는 시간'으로 오해될 가능성이다. 실제 현장에서는 제도가 존재함에도 불구하고, 무엇을 기준으로 준비해야 하는지 판단하지 못하는 경우가 적지 않다. 이는 규범이 추구하는 방향이 불분명해서라기보다 추상적 원칙이 실무 언어로 충분히 전환되지 않은 탓이다. 법은 가치와 방향을 제시할 수 있지만 개별 서비스의 구조까지 설명해 주지는 않는다. 예컨대 위험을 어떻게 평가할 것인지, 자동화된 판단 과정에서 인간의 개입은 어느 수준까지 요구되는지, 이용자에 대한 설명은 어떤 방식으로 이행돼야 하는지와 같은 문제는 법 조문만으로 해결되기 어렵다. 결국 해석과 적용의 영역이 필연적으로 발생한다. 이 지점에서 중요한 것은 처벌 가능성이 아니라 판단 예측 가능성이다. 기업이나 개발 주체가 가장 어려움을 느끼는 것은 규제가 존재한다는 사실 그 자체가 아니다. 어디까지가 허용되고 어디부터가 문제 되는지 가늠하기 어렵다는 데 있다. 기준이 명확하지 않으면 혁신은 위축되거나 반대로 무책임하게 확장된다. 현재 제도 운용 국면은 규칙을 집행하는 단계라기보다 규칙이 실제 작동할 수 있게 다듬는 과정으로 이해하는 편이 타당하다. 행정 해석, 사례 축적, 산업계와의 상호작용을 통해 원칙이 구체화되지 않으면 이후 강한 집행은 정당성을 확보하기 어렵다. 동시에 이 시기는 기업 내부 준비가 요구되는 시점이기도 하다. 외부 강제력이 약하다고 해서 책임까지 유예되는 것은 아니다. 데이터 출처와 관리 방식, 알고리즘 검증 절차, 결과에 대한 설명 가능성 등은 사후 대응이 아니라 사전 설계 문제다. 이런 점검은 규제를 피하기 위한 방어 수단이 아니라, 기술에 대한 신뢰를 확보하기 위한 최소 조건에 가깝다. 종종 규범은 혁신 반대편에 서 있는 것으로 인식된다. 그러나 명확한 기준이 없는 환경이 반드시 자유로운 환경을 의미하지는 않는다. 오히려 불확실성이 클수록 의사결정 비용은 증가하고 책임은 개인에게 과도하게 전가된다. 합리적인 규칙은 위험을 줄이는 동시에 기술이 사회 안에서 수용될 수 있는 경로를 마련한다. AI를 둘러싼 제도는 지금 질문을 던지고 있다. 얼마나 빨리 통제할 것인가가 아닌, 어떤 방식으로 책임을 배분할 것인가에 대한 질문이다. 기술 속도를 억제하는 것이 목적이 아니라 그 속도가 사회적 신뢰와 충돌하지 않도록 조정하는 것이 핵심이다. 이 과정을 통해 마련된 기준은 향후 집행의 출발점이 될 것이다. 그 기준이 경직된 잣대가 될지, 합리적인 신호가 될지는 지금의 제도 운용과 준비에 달렸다. AI를 다룬다는 것은 결국 기술을 규율하는 일이 아니라 기술을 사용하는 우리의 방식을 설계하는 일이기 때문이다.

2026.01.29 16:19정상훈 컬럼니스트

[기고] 의도하지 않은 AI의 민감정보 처리

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)은 이제 모두의 일상에 자연스럽게 자리하고 있다. 궁금한 것이 생겼을 때 AI에게 물어보거나 상담하고 자료를 분석하거나 정리하는 도구로도 활용한다. 마치 운전자가 내비게이션을 켜는 것처럼 AI는 필요할 때 자연스럽게 손이 가는 생활의 기본 도구가 됐다. 그러다 보니 AI에 입력되는 질문, 명령어, 자료 등에는 입력하는 사람에 관한 다양한 정보가 포함된다. 여기에는 그 사람을 식별하고 특정할 수 있는 개인정보는 물론 그 중에서도 그 사람의 사생활에 밀접하게 관련된 '민감정보'가 포함될 수 있다. 개인정보 보호법상 민감정보는 사상이나 신념, 노동조합이나 정당의 가입이나 탈퇴, 정치적 견해, 건강, 성생활 등에 관한 정보, 유전정보, 범죄경력자료, 생체정보(특정 개인을 알아보기 위해 활용되는 사람의 지문, 얼굴, 홍채, 정맥 등), 인종이나 민족에 관한 정보를 의미한다. 이러한 민감정보는 개인정보 중에서도 정보주체의 사생활을 현저히 침해할 우려가 있다. 이 때문에 개인정보 보호법은 민감정보의 수집 및 이용을 원칙적으로 금지한다. 예외적으로 정보주체의 별도 동의를 받거나 법령에서 민감정보 처리를 허용하는 경우에 한해서만 그 수집과 이용을 허용하고 있다. 이에 따라 AI 서비스를 통해 민감정보가 포함된 정보를 수집하는 것이 예상된다면 미리 이용자로부터 민감정보 처리에 관한 별도 동의를 받아야 할 것이다. 물론 일부 법에 근거해 민감정보 처리가 가능할 수도 있다. 병원 등 의료기관이나 장애인 지원 서비스 관련 AI 상담 챗봇이나 인사 AI 시스템일 경우가 그러한 경우다. 경우에 따라서는 서비스 제공자는 물론 이용자도 AI를 통해 민감정보가 입력될 것을 의도하거나 예상하지 못함에도 정보가 입력되는 경우가 존재한다. 상품 배송 고객센터 상담 챗봇에 고객이 특정 질환이나 병명을 언급하는 경우나 번역이나 문서 요약 등을 위해 업로드한 자료에 각종 민감정보가 포함되어 있을 수도 있다. 앞서 언급한 것처럼 민감정보는 별도 동의나 법령상 근거로만 수집이 가능하다. 통상적으로 민감정보 수집이 예정되지도 않고 어떤 민감정보가 수집될지도 알 수 없는 상황에서 미리 포괄적으로 민감정보 수집 및 이용 동의를 받는 것은 지나치게 포괄적인 동의다. 이 때문에 적법하다고 보기 어렵고 이러한 경우라면 민감정보 수집을 허용하는 법령상 근거도 당연히 없을 것이다. 아직까지는 이러한 문제가 본격적으로 대두되지는 않았다. 민감정보는 대체로 관련 서비스 제공 과정에서 그 수집 및 이용이 수반되거나 예정되는 경우가 많고 사전에 해당 민감정보 처리의 동의를 받으면 되기 때문이다. 그럼에도 의도되지 않은 AI의 민감정보 수집과 이용은 분명 존재하고 특히 민감정보가 포함된 자료 업로드는 예기치 못한 사회적 이슈를 초래할 수도 있다. 일례로 이용자가 번역이나 문서 요약 등을 위해 AI에 올린 자료 안에 본인이나 심지어 제3자의 의료기록, 범죄경력자료, 노동조합 활동이력 등이 포함될 수 있다. 이는 해당 정보주체의 개인정보, 그것도 민감정보의 자기결정권을 중대하게 침해할 수 있다. 이 문제와 관련해서는 1차적으로 AI 서비스 제공자가 AI 서비스상에서 민감정보의 처리가 이뤄지지 않도록 조치하는 방법이 있다. 다만 다양한 한계로 인해 AI 서비스 제공자가 입력된 민감정보를 완전히 적법하게 처리하기는 거의 불가능에 가깝다. 이용자로 하여금 민감정보를 완전히 비식별화한 후에만 자료나 정보를 업로드하도록 강제할 수단은 사실상 없다. 그런 서비스를 이용할 이용자는 거의 없을 것이기 때문이다. 더불어 서비스 제공자가 업로드된 자료나 정보(민감정보 포함)를 수집하고 그 자료나 정보에서 민감정보를 인식, 분류해서 삭제하는 것 자체도 결국 민감정보의 '처리'에 해당된다. 규제기관 차원에서 위와 같은 사정이 적극 고려될 필요가 있다. 민감정보 처리가 의도되지 않는 수많은 AI 서비스가 법령과 규제의 범위 내에서 적법하게 정보를 처리할 수 있는 현실적인 가이드라인이 마련되길 기대해 본다.

2025.08.18 11:32상지영 법무법인 태평양 컬럼니스트

[기고] AI 대전환의 시대, 기업이 지금 챙겨야 할 세가지 체크리스트

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 제21대 정부가 공식 출범하며 '인공지능(AI) 3대 강국 도약'을 국정 핵심과제로 내세웠다. 100조원 규모의 투자, 범정부 차원의 AI 진흥전략, 규제 정비, AI 인재 양성 등 국가적 지원이 본격화되는 지금은 기업에게도 분명히 기회의 시기다. 다만 AI 기술을 무조건적으로 끌어오는 것이 능사는 아니다. AI는 고도화된 데이터 기반 기술인 만큼 그 활용에는 반드시 데이터를 둘러싼 법·윤리·사회적 책임까지 함께 고려해야 한다. 그렇다면 지금 기업은 무엇을 준비해야 할까. 조직 내에 AI 도입 또는 서비스 개발 등을 고려 중이라면 아래 세 가지 질문부터 스스로 던져봐야 한다. 우리가 사용하는 데이터…어디까지 합법적으로 활용 가능한가? AI는 결국 '데이터'에서 시작된다. 다만 서비스 개발 또는 이용 과정에서 데이터를 활용하는 데에는 명확한 법적 한계가 존재한다. 개인정보보호법, 부정경쟁방지법, 저작권법 등 국내 규제뿐 아니라 유럽이나 미국 등 글로벌 규제 환경까지 고려해야 하기 때문이다. 실제로 지난해 미국에서는 파라마운트(Paramount)가 AI 기반 추천시스템 운영 중 구독자 동의 없이 데이터를 제3자와 공유했다는 명목으로 집단 소송에 휘말렸고 올해에는 링크드인이 유사한 이슈로 소송에 직면했다. 이용자의 개인 메시지를 사전 동의 없이 AI 학습에 활용했다는 의혹이 제기된 것이다. 이러한 사례는 데이터 활용이 단순한 '기술적 선택'이 아니라 '법적 책임'과 직결되는 사안임을 보여준다. 동시에 정교하게 구성된 동의 관리 체계와 핵심적 관리 도구로서의 데이터 계보(Data Lineage)가 가진 의의를 잘 드러낸다. 데이터 계보는 데이터의 수집부터 중간 가공, 최종 활용까지 전 과정을 추적·기록하는 체계다. 이를 통해 사고 발생 시 원인을 신속히 진단하고 규제에 효과적으로 대응하며 데이터의 신뢰성을 확보하고 조직 전반의 데이터 관리 효율성을 높일 수 있다. 이에 따라 사전에 데이터 계보를 점검하고 활용 과정이 관련 규제에 저촉되지 않는지 검토해 두는 것이 필요하다. AI가 만든 결과물…책임질 준비가 돼 있는가? AI의 판단 결과가 실제 서비스나 의사결정에 직접 영향을 미치는 시대다. 그 결과에 대한 책임을 누가 지는가는 단순한 이론적 논의에 머물지 않는다. 특히 '설명 가능성', '편향 방지', '책임 주체' 등에 대한 내부 기준이 없을 경우 예상치 못한 법적 분쟁에 휘말릴 수 있다. 일례로 지난해 에어 캐나다는 AI 챗봇이 잘못된 할인 정책 정보를 제공했다는 이유로 법적 책임을 부담하게 됐다. 고객은 챗봇 안내에 따라 항공권을 구매했으나 해당 정보는 실제 정책과 달랐다. 법원은 챗봇 역시 기업의 공식 채널로 간주된다며 책임을 인정했다. 또 다른 사례로, 미국 사법부에서 활용된 재범 위험도 평가 알고리즘은 특정 집단에 불리한 결과를 반복적으로 산출해 AI가 학습 데이터에 포함된 사회적 편향을 그대로 재현하거나 강화할 수 있음을 보여줬다. 이는 기술적 결함을 넘어 기업의 법적·윤리적 책임 문제로 이어질 수 있음을 시사한다. 결국 AI를 활용한 결과물에 대해 그에 대한 책임의 수준을 명확히 하고 그 책임을 완화하기 위한 사전적 검토를 수행할 필요가 있다. 우리 조직…AI 관련 규제 변화에 유연하게 대응할 체계를 갖추고 있을까? 새 정부는 인공지능기본법 하위법령을 조속히 마련하겠다고 밝혔다. AI 산업의 예측 가능성을 높이고 기술 개발을 장려하려는 취지지만 구체적인 가이드라인은 여전히 불명확한 상태다. 이에 따라 지금은 '제도화 초기 단계'이자 기업이 스스로 방향을 잡아야 하는 전략적 준비 기간이다. 법이 시행되기 이전에 기술, 법률, 윤리의 경계를 명확히 정하고 내부 정책과 대응 프로토콜을 사전에 설계해 둘 필요가 있다. 이 과정에서는 테크, 법무팀, 경영진은 물론 보안 조직, 개인정보 보호 및 데이터 전문가까지 협업하는 통합 거버넌스 체계가 핵심이다. 조직 내 정보 관리의 사각지대를 최소화하고 외부 변화에 유연하게 대응하기 위한 기본 틀이기 때문이다. AI는 이제 단순한 기술 트렌드를 넘어 모든 산업의 판을 바꾸는 핵심 전략이 됐다. 그 흐름에 올라타는 것은 더 이상 선택이 아닌 조직의 경쟁력과 지속 가능성을 좌우하는 생존의 조건이다. 기업이 기대했던 효과를 얻기 위해서는 법과 기술이 만나는 지점에서 균형 있게 대응할 수 있는 기반을 다질 필요가 있다. 적어도 위 세 가지 질문에 명확히 답할 수 있다면 변화의 흐름 속에서 새로운 성장과 혁신을 이끌어 낼 수 있을 것이다.

2025.06.10 09:42이수화 법무법인 태평양 컬럼니스트

[기고] 공정거래위원회 규제와 AI 워싱

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 기술이 일상생활과 산업 전반에 확산되면서 "AI 기술을 사용한다"는 문구는 이제 기업 홍보에서 흔히 사용되는 표현이 됐다. 다만 실제로는 AI를 활용하지 않거나 기술 수준을 과도하게 부풀리는 사례도 증가하고 있다. 이같은 사례는 'AI 워싱(AI Washing)'이라고 불린다. 이는 환경 친화적이지 않은 기업이 친환경 기업인 것처럼 홍보하는 '그린워싱(Greenwashing)' 개념에서 파생된 용어다. 공정거래위원회(공정위)는 지난 1월 발표한 '2025년 주요업무 추진계획'을 통해 AI 워싱 행위에 대한 감시 및 실태조사를 추진할 계획임을 밝혔다. 공정위가 아직 AI 워싱의 구체적인 유형이나 판단 기준을 제시한 바는 없으나 관련 규제는 공정위 소관 법령인 '표시·광고의 공정화에 관한 법률(표시광고법)'을 근거로 이루어질 것으로 예상된다. 이에 AI 워싱을 판단함에 있어 표시광고법상 부당한 표시·광고에 관한 기본 법리를 숙지하는 것이 우선돼야 한다. 표시광고법 제3조 제1항 제1호는 허위·과장이나 기만적인 표시·광고를 통해 소비자를 오도하거나 잘못 인식하게 할 우려가 있는 행위를 금지하고 있다. 광고의 적법성은 보통 수준의 주의력을 가진 일반 소비자가 해당 광고로부터 받는 전체적이고 궁극적인 인상을 기준으로 객관적으로 판단해야 한다. 이는 대법원에서 지난 2010년 7월 22일 선고한 판결(2007다59066)에서도 확인된다. 또 광고에 포함된 사실에 대한 입증 책임은 광고주에게 있으며 합리적이고 객관적인 근거를 통해 이를 증명해야 한다. 이는 대법원에서 지난 2003년 3월 31일에 내린 결정(2002마4109)에 명시된 바 있다. 이에 AI 기술 관련 표시·광고를 기획할 때에는 전문가가 아닌 일반 소비자를 기준으로 소비자 오인 가능성을 면밀히 검토해야 한다. 또 광고의 실증책임은 공정위가 아닌 광고주에게 있다는 점을 명확히 인식해야 한다. 제한된 지면이나 시간 속에서 소비자에게 정보를 전달해야 하는 광고의 특성상 불가피하게 소비자의 오인이 발생할 수 있다는 인식도 있다. 그럼에도 공정위는 광고의 표제만으로도 소비자가 오인하지 않도록 구성할 것을 명시적으로 요구하고 있다. 만약 부득이하게 제한사항(Disclaimer)을 표제에 담을 수 없다면 광고를 대략적으로만 접한 소비자라도 핵심 제한사항을 인지할 수 있도록 시각적·언어적으로 효과적인 전달 방식을 갖출 것을 권장된다. 실제로 공정위는 이에 대한 가이드라인인 '주된 표시·광고에 딸린 제한사항의 효과적 전달에 관한 가이드라인'도 제정한 바 있다. 표시·광고에서 주장된 내용에 대한 실증 방식은 공정위 고시인 '표시·광고 실증에 관한 운영지침'에 상세히 규정돼 있으므로 사업자는 이를 참고해 실증자료를 구비할 필요가 있다. 실증자료가 해당 기준에 부합하지 않는 경우 실증이 미흡하다고 판단돼 제재로 이어질 수 있다. 또 AI 워싱이 그린워싱에서 착안된 개념인 만큼 공정위의 그린워싱 판단 기준을 참고하는 것도 유의미하다. 공정위는 지난해 그린워싱에 대한 감시를 주요업무 추진계획으로 발표했고 그 일환으로 '환경 관련 표시·광고 심사지침'을 대폭 개정해 시행했다. 개정 지침은 기존 심사지침의 일반원칙을 재정비하고 구체적인 사례를 제시하고 있으며 사업자가 스스로 법 위반 여부를 점검할 수 있도록 셀프 체크리스트도 신설했다. 공정위가 올해 주요 업무로 AI 워싱을 명시한 만큼 향후 관련 조사와 제재가 본격화될 가능성이 크다. 이러한 흐름은 국내에만 국한되지 않는다. 미국은 AI 기술 주도권 유지를 위한 규제 완화 및 기술 혁신 촉진 정책을 펼치고 있으나 동시에 AI 기술의 공공성 확보를 위한 규제적 대응도 병행하고 있다. 실제로 미국 법무부는 최근 AI 워싱 문제에 본격적으로 개입하는 모습을 보이고 있다. 향후 AI 워싱과 관련한 규제기관의 보다 구체적인 판단 기준이 제시될 것으로 기대된다. 사업자들은 그에 앞서 표시광고법의 기본 원칙과 그린워싱 선례 등을 바탕으로 자사의 내부 컴플라이언스 체계를 정비하는 것이 바람직하다.

2025.05.09 16:16법무법인 태평양 변채영 컬럼니스트

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

카카오, 'AI 수익화 원년' 칼 뺐다...구글·오픈AI 스킬 장착

"다시 3N, 날아오른 K"…신작 흥행이 가른 게임사 실적

아동 정보까지 건드렸다...'버거킹'·'메가커피' 과징금 집중된 이유

삼성전자, 최대 속도 13Gbps급 HBM4 세계 최초 양산 출하

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.