• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'법무'통합검색 결과 입니다. (48건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[기고] 인공지능, 변호사와 닮은 꼴일까

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 업무에 인공지능(AI)을 사용하는 것이 당연한 시대가 되고 있다. AI 서비스가 포털의 검색서비스처럼 대중화되고 있는 것을 보니 변호사보다 법을 더 잘 아는 AI도 곧 현실이 될 것으로 보인다. 그렇다면 똑똑한 AI가 변호사를 대신할 수 있느냐는 궁금증이 생긴다. 답은 현재로서는 법적 제약이 있어서 어렵다는 것이다. 자격을 갖춘 변호사만 법률사무를 처리할 수 있도록 변호사법이 제한하고 있어서 AI가 법률사무를 처리하는 것은 불법이기 때문이다. 법전을 뒤져야 법률을 알 수 있었던 예전과 달리 법령의 내용, 적용사례, 법원 절차나 제출서류, 작성방법 같은 것은 인터넷에서 쉽게 찾을 수 있게 됐다. 또 법절차에 관한 경험담도 검색 서비스를 통해 쉽게 접할 수 있게 됐다. 이같은 요즘 상황에서 자격을 갖춘 변호사만 법률사무를 처리할 수 있게 제한하고 있는 이유가 궁금할 수 있다. 여기에는 여러 가지 이유가 있을 수 있지만 가장 근본적인 이유는 법률관계가 사람에게 미치는 영향이 크고 중요하기 때문이다. 업무로서의 법률관계에 관한 해석이나 조언을 수행하기 위해서는 법률 지식이 있는 것만으로는 충분하지 않으며 의뢰인의 비밀을 지키고 법조 윤리를 지키는 전문가에게만 허용해야 안전하다는 설명이다. 실제로 변호사는 법률 지식에 관한 시험 통과만을 요구받지 않는다. 지속적으로 윤리교육을 받을 의무, 특수한 상황에서는 수임 자료를 제출해서 점검을 받을 의무가 부과되는 등 간접적인 형태로 직업윤리가 요구되고 있다. 또 협회를 통한 자율적인 감시도 이루어지고 있다. 그런데 얼마 전 제정돼 오는 2026년 1월에 시행되는 AI기본법은 AI 서비스에 윤리와 신뢰성에 관한 권고나 의무를 구체적으로 요구한다. 그런데 이는 변호사에게 요구되는 윤리와 닮은 점이 있다. 본래 윤리란 법으로 그 내용을 확정하기 어렵기 때문에 관련 규정을 법률에서 정하는 경우가 많지 않다. 그런데 AI기본법에서는 AI 윤리를 비록 장려 형태지만 중요사항으로 규정하고 있다. 또 서비스가 AI에 기반해 운용된다는 점과 AI 결과물이라는 점을 이용자에게 알려야 하는 투명성 의무, AI의 위험과 안전사고에 대한 대응 체계를 갖추고 이행 결과를 정부에 제출해야 하는 안전성 확보에 관한 의무를 일정 요건에 해당하는 사업자에게 추가로 부과하고 있다. 이는 AI서비스가 이용자에게 중대한 영향을 줄 가능성이 있기 때문에 서비스가 윤리를 준수하고 외부 견제를 받도록 간접적인 안전조치를 취한 것으로 보인다. 변호사는 법률 지식과 자격시험 통과뿐만 아니라 윤리 준수와 외부 견제를 요구받는다. 이는 사용자에게 중요한 영향을 미치는 AI 서비스에 투명성과 안전성 조치를 요구하는 것과 닮아 있다. 더 넓게 보면 공통점은 보다 많아진다. 온라인에서 법률 정보, 판례, 해설서를 검색하고 제공하는 서비스는 변호사 자격 없이도 운영할 수 있다. 다만 구체적인 법률관계를 해석하고 자문하는 등 본격적인 법률 업무를 수행하려면 변호사 자격이 필요하다. 마찬가지로 AI 서비스도 일반적인 경우에는 특별한 제약이 없지만 사회적으로 중요한 영향을 미치는 서비스라면 정부가 개입하겠다는 태도를 보이고 있다. 향후에도 이러한 흐름은 계속될 가능성이 크다. 정부가 AI의 구체적인 내용에 개입하는 것은 어렵고 적절하지도 않다는 점을 생각하면 미래에는 법률 사무처럼 중요한 서비스를 위해 AI가 일정한 자격시험을 통과하는 제도가 생기는 것이 아닐까 섣부른 추측을 해 본다. 나아가 AI가 계속 발달한다면 변호사 자격까지 갖추고 법률사무를 처리하게 되는 것도 허황한 꿈은 아닐수 있다는 생각이 든다.

2025.03.17 14:28법무법인 태평양 류광현

美 계란 가격 급등에... 법무부, 반독점 조사 개시

미국 전역에서 계란 가격이 급등하자 법무부가 반독점 혐의에 대해 예비 조사를 시작했다. 최근 블룸버그통신은 법무부의 민사 반독점 집행 부서가 캘메인 푸드스와 로즈 에이커 팜스 등 일부 기업이 가격 인상이나 공급 제한을 위해 공모했는지 여부에 초점을 맞추고 있다고 보도했다. 미국 농무부(USDA)에 따르면 지난달 2일 기준으로 미국 중서부 지역의 계란 한 다스(12개) 도매 가격은 평균 8.41달러(약 1만2천184원)을 기록했으며, 이는 전년 대비 200% 이상 상승한 사상 최고치라고 외신은 전했다. 이번 가격 급등은 소비자에게 큰 타격을 주었으며, 도널드 트럼프 대통령에 대한 정치적 이슈로까지 부각돼 국회의원과 산업 감시 단체들이 조사를 요구했다는 것이 외신의 설명이다. 잭 리드 미국 상원의원은 USDA 장관에게 보낸 서한에서 트럼프 대통령 취임 이후 계란 한 다스 가격이 거의 2배로 올랐고, 행정부가 조류 독감 대응에 투입된 몇몇 직원을 해고했다고 주장했다. 미국 법무부 대변인과 미국 내 주요 계란 생산 업체 관계자들은 이에 대해 입장을 밝히지 않았다.

2025.03.10 09:00류승현

[기고] AI 법제화에 따른 기업의 대응 전략

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 기술이 빠르게 발전하면서 각국이 본격적으로 AI 관련 법제화를 추진하고 있다. 다만 AI는 그 활용 분야가 특정 산업∙업무에 국한되지 않고 개발에 있어서도 여러 법률 이슈가 존재해 단일한 법으로 모든 문제를 해결하는 것은 매우 어려운 일이다. 우리나라도 내년부터 시행 예정인 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'을 통해 AI의 정의∙분류와 사업자의 기본적인 의무 등에 관한 법적 틀을 마련한 바 있다. 그러나 AI의 개발∙운용이 기존의 개인정보 보호법, 저작권법, 독점규제 및 공정거래에 관한 법률 등 여러 법률과 맞물려 있는 상황으로, 기업들은 AI 관련 사업이나 업무를 추진할 때 다양한 법률에 대한 종합적인 검토를 거쳐야만 안심할 수 있다. 이러한 사정은 해외에서도 마찬가지다. 특히 유럽연합(EU)에서는 AI 시스템의 위험도 및 그에 따른 의무 등을 규정한 'EU AI법'을 중심으로 다양한 기타 법안들을 살펴볼 필요가 있다. 이 중에는 AI 개발∙운용에 수반되는 개인정보 처리에 적용되는 '일반정보보호 규정(GDPR)', 디지털 시장 및 서비스에 적용되는 '디지털 시장법(DMA)' 및 '디지털 서비스법(DSA)', 특정 산업에서의 경쟁제한성과 독점적 지위 강화에 대한 경쟁법 등을 살펴봐야 한다. 최근 기업의 타겟이 글로벌화 되면서 국가 간 경계가 흐려지고 있고 AI 개발에 활용되는 데이터도 특정 국가에서 생성∙수집된 것으로 한정되지 않고 있다. 이에 AI를 개발하고 활용하는 과정에서 국내뿐 아니라 해외 규제도 종합적으로 검토하는 것은 필수적인 과정이 됐다. 이에 따라 기업이 복잡한 규제 환경에서 AI를 안전하게 개발∙운용하기 위해서는 단순히 법제 동향을 파악하는 것을 넘어 AI 개발 및 운영 과정 전반에서 법적 위험을 사전에 검토하고 대응책을 마련할 수 있는 체계를 구축해야 한다. 이를 위해 기업이 실질적으로 고려해야 할 대응 전략으로는 다음과 같은 것들이 있다. 먼저 AI 기획∙개발∙운용 단계별로 적절한 법적 검토가 이루어질 수 있도록 내부 검토 기준을 마련할 필요가 있다. 특히 AI 기획∙개발 단계에서는 알고리즘의 공정성, 학습 대상이 되는 데이터 조달 방식에 따른 개인정보 처리 적법성, 저작권∙초상권 침해 여부 등의 위험요소에 대한 검토가 필요하다. AI 운용 단계에서는 이용자의 권리∙의무에 미치는 영향, AI 결정의 불공정성, 투명성 등에 대해 검토가 필요하다. 이 외에 AI를 직접 개발하는 것이 아니라 외부 AI 솔루션을 도입하거나 데이터를 외부에서 제공받는 형태로도 개발이 이루어질 때가 있다. 외부 제3자와 협업하는 경우에는 법적 위험을 최소화할 수 있도록 업체 선정 및 계약 단계에서부터 실제 개발∙활용 단계까지 양사 간 법적 관계 및 책임 소재를 명확히 하기 위한 기준을 마련해야 한다. 특히 데이터의 적법성 및 활용 범위, 저작권∙라이선스 등에 대해 분쟁이 발생할 위험이 있으므로 이러한 부분을 유의해야 한다. 이처럼 기업은 내부 인원들이 이러한 단계별 위험요소를 충분히 인지하고 각 단계별로 법적 검토를 진행할 수 있도록 큰 틀의 검토 기준을 마련하고 이를 교육하는 절차를 구축해야 할 것이다. AI 기획∙개발∙운용 단계별로 고려가 필요한 내부 기준이 마련되면 이제 이를 실효성 있게 만들 수 있는 거버넌스 체계를 구축해야 한다. AI 기술이 기업 내에서 광범위하게 활용되면서 개별 부서에서 각각 별도의 AI 시스템을 개발하는 사례가 많아지고 있다. 기업 내부에서 기준을 마련했다고 하더라도 이를 체계적으로 검토하기 위한 거버넌스가 구축돼 있지 않다면 AI 모델이 완결성 있는 검토 없이 개발돼 사후적으로 큰 문제가 발생할 수 있다. 이를 방지하기 위해 내부 지침 및 기준 등에 맞게 체계적인 검토를 주도할 수 있는 위원회나 담당부서 등을 신설 또는 지정할 필요가 있다. 실제로 시스템을 구축한 사례들을 살펴보면, 글로벌 기업인 A사는 자사 AI 시스템의 영향도, 목적적합성, 데이터 거버넌스, 투명성, 안정성 등을 평가하기 위한 종합적인 AI 가이드라인을 구체적으로 제시했다. 또 AI 원칙, 기술, 윤리, 법률, 정책 분야의 최고 전문가들로 구성된 내부 위원회를 통해 최신 AI이슈에 대한 조사, 정책 개발 및 도구 제작, 특정 기술 분야에 대한 실행 지침 수립, AI 모델 평가 등의 업무를 수행하고 있다. 이 외에도 많은 기업들이 자신의 입장을 고려한 AI 거버넌스를 구축하고 있다. 분야를 막론하고 이들의 공통점은 일관된 기준과 그 기준을 구체화한 가이드라인, AI 개발∙운용에 대한 체계적인 관리를 위한 거버넌스를 구축하고 있다는 점이다. AI에 대한 법적 규제가 고도화되고 있으나 AI의 복잡성과 발전 속도로 인해 많은 기업들이 그 대응 전략을 설정하는 데 어려움을 겪고 있는 것도 현실이다. AI가 공급망 전단계에 걸쳐 다양하고 새로운 법적 위험을 내포하고 있는 만큼 이에 대한 대비가 부족한 경우 불필요한 법적 분쟁에 휘말릴 가능성이 커질 수밖에 없다. 반면 AI 법제를 선제적으로 검토하고 체계적인 위험 관리 체계를 갖춘 기업은 단순한 규제 준수를 넘어 효율성 있는 정책 및 전략 수립을 세울 수 있을 것이다. 이로써 이들이 AI 비즈니스에서 경쟁력을 확보할 수 있는 기회를 갖게 될 것도 명확하다. AI 법제화가 진행되는 글로벌 환경에서 기업들이 해야 할 일은 분명하다. 단순히 AI 기술을 개발하는 것을 넘어 AI의 법적 위험을 줄이고 이를 체계적으로 관리할 수 있는 AI 관리 시스템을 구축하는 것이다. 이것이 기업이 글로벌 AI 경쟁에서도 지속 가능한 경쟁력을 확보하는 길이다.

2025.02.28 14:15법무법인 태평양 오세인

법무법인 율촌 "법인 가상자산 거래 허용...시장 패러다임 바꿀 것"

법무법인 율촌이 18일 배포한 보고서를 통해 금융위원회의 법인 가상자산 거래 허용 조치가 국내 가상자산 시장의 패러다임을 변화시킬 중요한 전환점이 될 것이라고 전망했다. 율촌은 이번 조치가 단순한 규제 완화를 넘어 가상자산이 제도권 금융 시스템 내에서 자산으로 인정받는 계기가 될 것이라고 분석했다. 금융위원회는 13일 제3차 가상자산위원회 회의를 통해 법인의 가상자산 거래를 단계적으로 허용하는 등 정책 검토 결과를 최종 논의했다. 법인 가상자산 시장 참여 로드맵에 따르면 1단계에서는 비영리법인과 가상자산거래소의 보유 자산 매도만 허용되며, 2단계에서는 상장법인과 일부 전문투자자 등록 법인이 가상자산 매매에 참여할 수 있다. 3단계에서는 외환 및 세제 관련 정비 후 모든 법인의 자유로운 거래가 가능해질 예정이다. 율촌은 이번 조치로 인해 국내 가상자산 시장의 유동성이 크게 증가할 것으로 전망했다. 기업과 기관투자자가 시장에 참여하면 기존 개인 투자자 중심의 시장 구조가 변화할 가능성이 크다. 특히, 대기업과 금융기관이 가상자산을 포트폴리오 자산으로 편입할 경우 가상자산의 제도권 편입이 가속화될 것이라고 내다봤다. 또한 보고서를 통해 기업의 가상자산 보유가 본격화되면서 내부통제 기준과 자금세탁방지(AML) 규제가 더욱 강화될 것이라고 예상했다. 금융당국은 기업의 가상자산 회계 및 세무 처리 기준을 명확히 하고, 불법 금융 흐름을 차단하기 위한 규제안을 마련할 방침이다. 이에 따라 기업들은 가상자산 관련 회계 및 세무 처리 시스템을 정비해야 할 필요성이 커질 전망이다. 또한, 율촌은 스테이블코인 규제와 증권형 토큰(STO) 관련 정책 변화도 함께 이뤄질 가능성이 높다고 분석했다. 가상자산이 기업의 자산으로 인정받기 위해서는 안정적인 법적·제도적 기반이 마련되어야 하며, 이에 따라 스테이블코인의 법적 정의 및 발행 기준, 증권형 토큰의 법적 지위가 재조정될 가능성이 크다는 이유다. 가상자산이 금융시장에서 차지하는 비중이 커지면서, 글로벌 트렌드에 맞춰 국내 기업들도 가상자산을 활용한 자금 조달과 투자 전략을 적극적으로 검토할 것으로 보인다. 특히 미국과 유럽에서는 기업들이 이미 비트코인을 자산으로 보유하거나 가상자산을 활용한 금융상품을 출시하는 사례가 늘어나고 있다. 율촌은 국내에서도 이러한 움직임이 확대될 것으로 전망했다.

2025.02.19 16:13김한준

[기고] 원본 데이터 AI 활용 특례, 신기술 혁신 속도와 수요 반영해야

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 개인정보보호위원회와 과학기술정보통신부는 지난해 4개 사업자들을 대상으로 자율주행 인공지능(AI) 시스템 고도화를 위한 영상정보 원본을 활용하는 실증특례를 지정했다. 조금 풀어서 설명하자면 자율주행 AI 학습에는 보행자의 얼굴, 위치, 차량번호 또는 개인정보가 포함된 주행영상 등 영상정보가 필요하다. 현행 개인정보 보호법상 AI 학습에 주행영상 등 영상정보를 활용하려면 정보주체의 동의를 받거나 해당 정보를 가명처리해야 한다. 당연히도 전자는 불가능하고 후자의 경우 보행자 인식률이 저하되는 등 정보의 가치가 떨어지게 된다. 이러한 상황을 타개할 수 있는 것이 규제샌드박스 실증특례 제도다. 이 제도는 사업자가 신기술을 활용한 새로운 서비스를 일정 조건 하에 시장에 우선 출시해서 시험, 검증하게끔 현행 규제 일부를 적용하지 않도록 허용해 준다. 사업자들은 이 실증특례 지정을 신청해서 허용받음으로써 강화된 안전조치 기준을 마련하고 개인정보보호위원회의 주기적 점검을 받도록 하는 등을 조건으로 가명처리하지 않은 영상데이터의 원본을 AI 학습에 활용할 수 있게 됐다. 매우 의미 있는 제도임에도 사업자들이 실증특례 제도를 적극적으로 이용하지 못하는 결정적인 이유가 있다. 규제에서 자유로워지는 것이 아니라 최대 4년의 기간 동안만 규제 적용을 유예 받을 뿐이기 때문이다. 유예 기간 내에 법령이 정비돼 관련 규제가 개선되지 않으면 해당 서비스는 다시 '임시허가'를 통해 시장에 출시해야 한다. 심지어는 유예 기간 중 처리해 왔던 방식에 따라 데이터를 처리하는 경우 법 위반으로 출시를 못하게 될 수도 있다. 개인정보보호위원회는 새해 주요 업무 추진계획 6대 핵심 추진과제 중 하나로 AI 시대에 부합하는 개인정보 법제를 정비하겠다고 공표한 바 있다. 그러면서 자율주행 AI 개발 등 가명처리만으로 연구 목적 달성이 곤란한 경우 원본 데이터 활용을 개인정보 심의, 의결 하에 허용하는 특례를 마련하겠다고 발표했다. 이는 현행 규제샌드박스 실증특례는 최대 4년 동안만 규제 적용을 유예해 준다는 한계를 극복하기 위한 조치로, 개인정보 보호법에 특례 규정을 신설해 AI 개발을 위한 원본 데이터 활용을 허용할 방침이다. 더불어 개인정보보호위원회의 심의·의결과 사후 점검 등의 조건을 둬 개인정보 보호도 함께 도모할 계획이다. AI 기반 기술과 시스템이 더욱 빠른 속도로 고도화돼 가고 있는 현 상황에서 AI 학습 목적의 원본 데이터 활용을 금지할 수 없다는 위원회의 결단으로 풀이돼 공감이 간다. 다만 추진계획에 따르면 이러한 내용이 담길 개인정보 보호법 개정안은 AI 개발 사업자의 '정당한 이익'이나 '공익' 등을 고려하도록 하고 있어 오히려 원본 데이터 활용이 예상외로 제약될 가능성이 있어 보인다. 추후 구체적인 개정안을 구체적으로 살펴봐야 하겠으나 신기술의 개발이 아닌 사회적 편익이나 공익을 고려해 특례를 허용할 경우 제도의 취지에도 불구하고 상당수의 AI 개발 사업은 이 특례 제도를 활용하기 어려워질 것이다. 위원회가 심결이나 사후 현장점검 등을 어떻게 운영할지도 특례 제도 활용에 있어서 매우 중요한 요소가 될 것으로 보인다. 우선 위원회가 업무 추진계획에서 밝힌 바와 같이 합리적이고 유연한 법 해석을 통해 신기술 변화와 현행 법 체계 간 간극을 완화하기 위해서는 위원회의 심결이 신속하게 이루어져야 할 것이다. 기존 규제샌드박스 실증특례는 유사 사례가 있는 경우 패스트트랙 제도를 통해 승인 기간을 평균 4~5개월에서 2개월로 단축해 운영하고 있는 상황이다. 심결 이후에도 위원회의 관리, 감독을 통해서도 사후 통제가 가능한 점을 감안할 때 심결은 가급적 간이하고 신속하게 이뤄질 필요가 있다. 위원회의 사후 관리, 감독도 지나치게 포괄적인 범위의 점검이나 자료제출 요구 등이 이뤄지지 않는지 검토가 필요하다. 심결이 간이하게 이뤄진다면 사후통제 기능이 어느 정도 작동해야 하겠으나 AI 개발 사업자 입장에서 사업 운영에 지장이 갈 정도로 관리, 감독 등이 이뤄진다면 사업자로서는 특례 제도를 고려할 실익이 없게 된다. 이 부분은 AI기본법의 제정 과정에서도 유사한 논란이 제기된 바 있다. 원본 데이터를 가명처리 없이 쓰도록 허용해 주는 특례 제도를 도입하더라도 어느 정도의 제한이 부여되어야 한다는 점은 충분히 공감한다. 다만 신기술 및 신산업 혁신 촉진을 도모하기 위해 도입되는 제도인 만큼 AI 개발 사업자들이 특례 제도를 활용할 '엄두'는 낼 수 있어야 한다. 사업자들의 애로와 현실을 충분히 반영한 합리적이고 유연한 법제도의 도입을 기대해 본다.

2025.02.03 10:17법무법인 태평양 상지영

"예산 4억으로 이겼다"…개인정보위, 구글·메타와 붙은 1400억 싸움 승소

구글과 메타가 개인정보보호위원회 상대로 제기한 시정명령·1천억원대 과징금 취소 소송에 대해 서울행정법원이 전부 기각했다. 개인정보보호위원회는 구글·메타의 사용자 행태정보 수집·이용 관련 행정소송에서 승소했다고 23일 밝혔다. 개인정보위는 2021년 2월부터 구글과 메타의 맞춤형 광고 관련 개인정보 처리 실태를 조사해 왔다. 2022년 9월에 구글과 메타가 이용자 동의 없이 다양한 온라인 활동 기록을 수집해 맞춤형 광고에 활용한 사실에 대한 시정명령과 함께 구글에 692억원, 메타에 308억원을 각각 부과했다. 당시 조사 결과 구글은 개인정보 수집 동의 과정을 '옵션 더보기'에 숨겼으며 동의를 기본값으로 설정해 진행한 것으로 밝혀졌다. 메타는 694줄에 달하는 관련 내용을 한 화면에 5줄만 보이도록 구성해 이용자 동의를 받은 사실이 드러났다. 구글과 메타는 "개인정보 수집 주체는 웹사이트나 앱 운영 사업자"라며 "개인정보 처리방침 등을 통해 적법하게 동의를 받았다"고 주장했다. 이후 2023년 2월 서울행정법원에 소송을 제기했다. 반면 개인정보위는 "구글과 메타가 제공하는 서비스에 가입한 이용자의 웹사이트 방문 정보와 앱 사용 정보를 추적‧수집해 맞춤형 광고에 활용했다"며 "해당 기업들은 이용자 동의를 받아야 한다"고 주장했다. 또 유럽연합(EU)과 미국 등 다른 국가에서도 유사한 제재를 받은 사례를 근거로 설명했다. 이에 서울행정법원은 구글과 메타 청구를 전부 기각했다. 법무부는 "이번 판결은 다국적 기업으로부터 국민의 권리를 지켜낸 기념비적 사례"라며 "앞으로도 국제소송에서 국민과 국익을 수호하기 위해 다각적인 법률 지원을 지속하겠다"고 밝혔다. 최근 늘어난 개인정보 관련 소송이 증가하면서 글로벌 기업은 국내 대형 법무법인을 소송대리인으로 선임해 소송에 대비해 왔다. 반면 개인정보위는 지난해 소송수행 예산이 4억원에 그친 것으로 전해졌다. 올해 소송 예산도 4억원으로 동결됐다. 이에 업계에선 이번 1심 승소가 소송 예산 4억원으로 이룬 것을 긍정적으로 평가하고 있다. 개인정보위 이정렬 사무처장은 지난해 브리핑에서 "늘어난 소송에 대비하기 위해 올 3월 단기적으로 송무팀을 꾸리고 장기적으로는 빅테크 전담 변호사와 회계사를 구축할 것"이라며 "현재 공무원 4급에 해당하는 전문가를 팀장으로 영입한 상태"라고 밝힌 바 있다. 개인정보위는 "이번 판결이 구글과 메타의 맞춤형 광고 관련 동의 의무 위반 처분이 정당했음을 입증했다"며 "대규모 플랫폼 사업자의 개인정보 보호 책임을 명확히 한 중요한 사례"라고 평가했다. 이어 "인공지능(AI) 데이터 사회가 확산되는 가운데 국민의 개인정보 자기결정권을 충실히 보장하기 위해 더욱 노력할 계획"이라고 덧붙였다.

2025.01.23 15:21김미정

[기고] AI 생성 결과물의 명암

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 생성형 인공지능(AI)의 발전은 창작 과정 전반에 혁신적인 변화를 가져오고 있다. AI는 텍스트, 이미지, 음악, 영상 등 다양한 콘텐츠를 생성할 수 있는 능력을 갖추고 있으며 이러한 기술은 창작자와 기업에게 새로운 기회를 제공하고 있다. 동시에 AI가 생성한 결과물에 대한 저작권 문제는 여전히 논란의 중심에 있다. AI는 창작 활동의 유용한 도구로, 과거에는 상상조차 어려웠던 방식으로 콘텐츠 제작을 가능하게 하고 있다. 누구나 간단한 입력만으로 고품질의 텍스트나 이미지를 생성할 수 있게 되면서 창작의 문턱이 크게 낮아졌다. 이는 소규모 창작자나 비전문가들에게 큰 이점을 제공하고 문화적 다양성과 창작물의 양적 증가를 이끄는 긍정적인 영향을 미치고 있다. 일례로 소규모 게임 개발자는 오픈AI '챗GPT'를 활용해 캐릭터별로 서사를 만들고 이를 조합해 스토리 라인을 구축할 수 있다. 또 그림 AI인 '미드저니'를 활용해 고품질의 캐릭터 및 배경 이미지를 제작하거나 음악 AI인 '주크박스'를 활용해 원하는 장르와 스타일의 음원을 생성하는 등 게임 개발에 있어 비용과 시간을 절약하는 것을 생각해 볼 수 있다. 이러한 AI 기반 도구는 전문적 기술 배경이 없는 일반 사용자에게도 창작의 문턱을 낮춰 보다 다양한 창작물이 등장하는 환경을 조성하는 데 기여한다. 그럼에도 AI 생성물에 대한 저작권 문제는 복잡하다. 저작권법의 핵심은 창작으로, 이는 인간의 창의적 노력과 아이디어에서 비롯된다. 그런데 AI는 인간의 창작적 개입 없이도 결과물을 생성할 수 있으며 이러한 경우 해당 결과물이 저작권 보호의 대상이 되는지에 대한 명확한 기준이 없다. 현재 대부분의 국가에서는 인간만이 저작권의 주체가 될 수 있다고 규정하고 있다. 이에 따라 AI가 생성한 결과물은 원칙적으로 저작권 보호를 받을 수 없다. 이는 AI를 활용하는 기업이나 개인들에게 법적 공백을 초래할 수 있다. 미국에서는 AI인 '창작 머신(Creativity machine)'이 생성한 작품인 '파라다이스로 가는 입구(A Recent Entrance to Paradise)'가 저작권 등록을 거절당한 사례가 있다. AI를 저작자로 표시해 AI 소유자의 업무상 저작물로 등록하고자 한 것이었는데 인간의 창작물이 아니라는 이유로 그 등록이 거절당한 것이다. 반면 AI와 인간의 협업으로 만들어진 작품의 경우 인간이 창작에 기여한 부분에 한해 저작권이 인정되기도 한다. 만화책 '여명의 자리야(Zarya of the Dawn)' 사례에서 미국 저작권청은 인간이 작성한 텍스트와 AI로 생성된 그림의 배열 및 조정을 편집 저작물로 인정했으나 AI가 생성한 그림 자체에는 저작권을 인정하지 않았다. 중국 법원에서는 AI가 생성한 이미지를 둘러싼 소송에서 원고가 프롬프트를 통해 이미지 제작에 창의적 기여를 했음을 인정해 저작물로 판단한 사례도 있다. 이는 프롬프트 입력 등 인간의 창의적 개입이 저작권 인정 여부의 핵심 기준이 될 수 있음을 보여준다. 국내에서는 아직 생성형 AI 저작권 문제에 대한 명확한 판결은 없지만 문화체육관광부가 지난 2023년 10월 발간한 생성형 AI 저작권 안내서에서는 인간만이 저작자가 될 수 있다고 밝혔다. 이에 따르면 AI 생성물 자체는 저작물로 보호되지 않으며 인간이 창작성을 부가한 경우에만 저작권 귀속 논의가 가능하다. 창작적 기여 여부와 그 정도는 법원의 판단에 따라 결정될 것이라는 입장이다. AI 생성물에 대해 저작권과 유사한 보호를 제공하거나 새로운 법적 지위를 도입하는 방안도 검토할 필요가 있다. 특히 현대미술의 난해함을 고려할 때 AI를 활용한 인간의 창의적 기여를 평가하는 명확한 기준을 마련해야 한다. 창작자의 권리와 기술 혁신의 조화를 이루는 법적 제도를 정립하는 것이 중요하다. AI 생성물은 창작의 가능성을 확장하며 우리의 삶에 혁신을 가져오고 있다. 다만 저작권 문제를 해결하지 않고서는 이러한 기술의 잠재력을 온전히 실현하기 어렵다. 법적, 윤리적 논의를 통해 AI 시대에 걸맞은 창작과 보호의 균형을 찾아야 한다. AI가 창작의 도구로 자리 잡는 과정에서 창작자와 기술 개발자 모두의 권리를 존중하는 법적 환경을 조성하는 것이 필수적이다.

2025.01.16 15:25법무법인 태평양 정상훈

[기고] 인공지능 기본법안 그 이후

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 지난해 노벨물리학상과 화학상 모두 인공지능(AI) 관련 연구자들에게 수여되며 AI에 대한 전세계적인 관심이 다시 한번 입증됐다. 특히 노벨물리학상을 수여받은 제프리 힌턴 캐나다 교수는 인간을 뛰어넘는 AI이 나올 것이라는 점을 예측하고 이후 그 위험성에 대해 다시 한번 경고를 해 세간의 화제가 됐다. AI 시대에 접어들면서 해당 기술로 인한 위험에 대한 관심도 증가하는 새해를 맞이하고 있다. 지난 2016년 알파고 등장 이후 AI에 대한 식었던 열망은 부활했다. 지난 2022년 '챗GPT' 등장으로 AI는 이제 우리 생활에서 편하게 접할 수 있는 서비스가 됐으며 요즘은 AI라는 단어가 포함되지 않은 광고를 찾아보기 힘들 정도의 시대에 접어들었다. AI가 실제 우리 생활을 편리하게 바꿔 주는 것인지 아니면 우리 생활을 위협하는지에 대한 질문이 제기되는 상황이다. 신기술의 등장은 언제나 우리 생활에 명과 암을 줬다. 우리의 선택은 그 중에서 편리한 점을 취하면서 위험을 최대한 줄이기 위한 노력의 과정이었던 것으로 생각된다. 인터넷 도입 당시와 유사하게 AI를 통한 편리함을 느끼지만 동시에 그 폐해에 대해서도 이야기를 하는 시대에 접어들게 됐다. 인터넷을 둘러싼 많은 법률관계들이 인터넷 등장 이후 장기간에 논의됐던 것과 같이 AI를 둘러싼 다양한 법률관계들도 점진적이지만 긍정적으로 발전할 것을 기대해 본다. AI 서비스에 대한 지원과 규제라는 두 마리 토끼를 잡기 위해 지난달 26일 국회는 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(AI기본법)'을 통과시켰다. 위 기본법안에는 AI 산업 활성화를 위한 산업 장려방안, AI 안전을 담보하기 위한 AI안전연구소 신설 등도 포함을 하고 있다. 이와 함께 사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI시스템(고영향 AI)에 대한 규제 및 생성형 인공지능에 대한 규제도 모두 포함됐다. 모두 주지하는 것과 같이 AI 자체는 선과 악을 구분할 수 없는 하나의 기술이다. 그럼에도 특정 목적과 영역에 사용하기 위해 개발된 AI와 생성형 AI(범용 AI)는 인간의 생명, 신체의 안전이나 기본권에 중대한 영향을 미칠 수 있다. 이에 따라 이들을 고영향 AI로 분류해 규제체계를 마련했으며 일반적으로 이용되는 생성형 또는 범용 AI의 경우에도 설명 의무 등을 부여하게 된 것이다. 그럼에도 특정 목적이나 특정 영역에 사용되는 AI 이외의 기타 유형 AI에도 분명 위험성은 존재한다. 다시 말해 제도적으로 정비를 해야 할 사항에 대해 기본법안을 통해 어느 정도 규제체계를 정비한 상황임에도 불구하고 일상적으로 발생할 문제에 대해서는 개별 논의가 필요하다. 또 우리가 주목해야 할 점은 AI 서비스에 대한 책임은 결국 구체적인 상황에서 정해져야 하는 것이며 이를 모두 서비스 사업자에게만 국한시킬 수는 없다는 것이다. 일례로 누군가가 수의를 입고 있는 모습을 딥페이크 기술로 합성해 게시할 경우 이에 대한 책임은 누가 져야 하는지에 대한 문제가 제기될 수 있다. 일각에서는 딥페이크 영상을 만들 수 있도록 서비스를 제공한 AI서비스 사업자에게 책임을 지게 해야 한다고 말하기도 한다. 그런데 인터넷 포털에서 명예훼손적인 글을 게재하는 경우 일차적으로 책임을 져야 하는 사람은 해당 이용자다. 위와 같은 사안에서도 그 일차적인 책임은 딥페이크 기술을 이용한 이용자여야 할 것으로 보인다. 다만 AI서비스 사업자들로서는 영상합성 기술에 대해 이용자들에게 경고를 하고 딥페이크로 인해 사람들이 속지 않도록 "해당 영상은 AI서비스 또는 기술을 통해서 생성됐다"고 알리는 역할을 하면 될 것으로 보인다. AI 서비스 또는 기술을 이용한 폐단은 향후에도 다수 발생할 수 있다. 이에 따라 개별적인 문제에 있어서 누가 책임을 우선 부담하는지, 이러한 폐단을 극복하기 위해 이용자들에게 어떠한 주의의무를 부과할 것인지, 또는 개별 인공지능에서 최소한의 어떠한 안전장치를 구현하도록 할 것인지 등에 대한 고찰이 필요하다. AI의 폐단만이 아니라 AI를 통한 생활의 편리함을 고려해 다양하고 구체적인 해결방안이 모색돼야 할 시점이다.

2025.01.03 15:59법무법인(유한) 태평양 윤주호

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

8나노 몰리고, 4나노 안정…탄력받는 삼성 파운드리

로봇용 OLED 시장 노리는 삼성·LG…넘어야 할 2가지 과제

"조선·플랜트 용접 자동화 가속"…제이씨티, 협동로봇 '제품화' 승부수

[AI는 지금] 독파모 '패자부활전' 할까 말까…"혜택 크다" vs "역효과"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.