• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'법무법인 태평양'통합검색 결과 입니다. (24건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[기고] AI 법제화에 따른 기업의 대응 전략

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 기술이 빠르게 발전하면서 각국이 본격적으로 AI 관련 법제화를 추진하고 있다. 다만 AI는 그 활용 분야가 특정 산업∙업무에 국한되지 않고 개발에 있어서도 여러 법률 이슈가 존재해 단일한 법으로 모든 문제를 해결하는 것은 매우 어려운 일이다. 우리나라도 내년부터 시행 예정인 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'을 통해 AI의 정의∙분류와 사업자의 기본적인 의무 등에 관한 법적 틀을 마련한 바 있다. 그러나 AI의 개발∙운용이 기존의 개인정보 보호법, 저작권법, 독점규제 및 공정거래에 관한 법률 등 여러 법률과 맞물려 있는 상황으로, 기업들은 AI 관련 사업이나 업무를 추진할 때 다양한 법률에 대한 종합적인 검토를 거쳐야만 안심할 수 있다. 이러한 사정은 해외에서도 마찬가지다. 특히 유럽연합(EU)에서는 AI 시스템의 위험도 및 그에 따른 의무 등을 규정한 'EU AI법'을 중심으로 다양한 기타 법안들을 살펴볼 필요가 있다. 이 중에는 AI 개발∙운용에 수반되는 개인정보 처리에 적용되는 '일반정보보호 규정(GDPR)', 디지털 시장 및 서비스에 적용되는 '디지털 시장법(DMA)' 및 '디지털 서비스법(DSA)', 특정 산업에서의 경쟁제한성과 독점적 지위 강화에 대한 경쟁법 등을 살펴봐야 한다. 최근 기업의 타겟이 글로벌화 되면서 국가 간 경계가 흐려지고 있고 AI 개발에 활용되는 데이터도 특정 국가에서 생성∙수집된 것으로 한정되지 않고 있다. 이에 AI를 개발하고 활용하는 과정에서 국내뿐 아니라 해외 규제도 종합적으로 검토하는 것은 필수적인 과정이 됐다. 이에 따라 기업이 복잡한 규제 환경에서 AI를 안전하게 개발∙운용하기 위해서는 단순히 법제 동향을 파악하는 것을 넘어 AI 개발 및 운영 과정 전반에서 법적 위험을 사전에 검토하고 대응책을 마련할 수 있는 체계를 구축해야 한다. 이를 위해 기업이 실질적으로 고려해야 할 대응 전략으로는 다음과 같은 것들이 있다. 먼저 AI 기획∙개발∙운용 단계별로 적절한 법적 검토가 이루어질 수 있도록 내부 검토 기준을 마련할 필요가 있다. 특히 AI 기획∙개발 단계에서는 알고리즘의 공정성, 학습 대상이 되는 데이터 조달 방식에 따른 개인정보 처리 적법성, 저작권∙초상권 침해 여부 등의 위험요소에 대한 검토가 필요하다. AI 운용 단계에서는 이용자의 권리∙의무에 미치는 영향, AI 결정의 불공정성, 투명성 등에 대해 검토가 필요하다. 이 외에 AI를 직접 개발하는 것이 아니라 외부 AI 솔루션을 도입하거나 데이터를 외부에서 제공받는 형태로도 개발이 이루어질 때가 있다. 외부 제3자와 협업하는 경우에는 법적 위험을 최소화할 수 있도록 업체 선정 및 계약 단계에서부터 실제 개발∙활용 단계까지 양사 간 법적 관계 및 책임 소재를 명확히 하기 위한 기준을 마련해야 한다. 특히 데이터의 적법성 및 활용 범위, 저작권∙라이선스 등에 대해 분쟁이 발생할 위험이 있으므로 이러한 부분을 유의해야 한다. 이처럼 기업은 내부 인원들이 이러한 단계별 위험요소를 충분히 인지하고 각 단계별로 법적 검토를 진행할 수 있도록 큰 틀의 검토 기준을 마련하고 이를 교육하는 절차를 구축해야 할 것이다. AI 기획∙개발∙운용 단계별로 고려가 필요한 내부 기준이 마련되면 이제 이를 실효성 있게 만들 수 있는 거버넌스 체계를 구축해야 한다. AI 기술이 기업 내에서 광범위하게 활용되면서 개별 부서에서 각각 별도의 AI 시스템을 개발하는 사례가 많아지고 있다. 기업 내부에서 기준을 마련했다고 하더라도 이를 체계적으로 검토하기 위한 거버넌스가 구축돼 있지 않다면 AI 모델이 완결성 있는 검토 없이 개발돼 사후적으로 큰 문제가 발생할 수 있다. 이를 방지하기 위해 내부 지침 및 기준 등에 맞게 체계적인 검토를 주도할 수 있는 위원회나 담당부서 등을 신설 또는 지정할 필요가 있다. 실제로 시스템을 구축한 사례들을 살펴보면, 글로벌 기업인 A사는 자사 AI 시스템의 영향도, 목적적합성, 데이터 거버넌스, 투명성, 안정성 등을 평가하기 위한 종합적인 AI 가이드라인을 구체적으로 제시했다. 또 AI 원칙, 기술, 윤리, 법률, 정책 분야의 최고 전문가들로 구성된 내부 위원회를 통해 최신 AI이슈에 대한 조사, 정책 개발 및 도구 제작, 특정 기술 분야에 대한 실행 지침 수립, AI 모델 평가 등의 업무를 수행하고 있다. 이 외에도 많은 기업들이 자신의 입장을 고려한 AI 거버넌스를 구축하고 있다. 분야를 막론하고 이들의 공통점은 일관된 기준과 그 기준을 구체화한 가이드라인, AI 개발∙운용에 대한 체계적인 관리를 위한 거버넌스를 구축하고 있다는 점이다. AI에 대한 법적 규제가 고도화되고 있으나 AI의 복잡성과 발전 속도로 인해 많은 기업들이 그 대응 전략을 설정하는 데 어려움을 겪고 있는 것도 현실이다. AI가 공급망 전단계에 걸쳐 다양하고 새로운 법적 위험을 내포하고 있는 만큼 이에 대한 대비가 부족한 경우 불필요한 법적 분쟁에 휘말릴 가능성이 커질 수밖에 없다. 반면 AI 법제를 선제적으로 검토하고 체계적인 위험 관리 체계를 갖춘 기업은 단순한 규제 준수를 넘어 효율성 있는 정책 및 전략 수립을 세울 수 있을 것이다. 이로써 이들이 AI 비즈니스에서 경쟁력을 확보할 수 있는 기회를 갖게 될 것도 명확하다. AI 법제화가 진행되는 글로벌 환경에서 기업들이 해야 할 일은 분명하다. 단순히 AI 기술을 개발하는 것을 넘어 AI의 법적 위험을 줄이고 이를 체계적으로 관리할 수 있는 AI 관리 시스템을 구축하는 것이다. 이것이 기업이 글로벌 AI 경쟁에서도 지속 가능한 경쟁력을 확보하는 길이다.

2025.02.28 14:15법무법인 태평양 오세인 컬럼니스트

[기고] 원본 데이터 AI 활용 특례, 신기술 혁신 속도와 수요 반영해야

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 개인정보보호위원회와 과학기술정보통신부는 지난해 4개 사업자들을 대상으로 자율주행 인공지능(AI) 시스템 고도화를 위한 영상정보 원본을 활용하는 실증특례를 지정했다. 조금 풀어서 설명하자면 자율주행 AI 학습에는 보행자의 얼굴, 위치, 차량번호 또는 개인정보가 포함된 주행영상 등 영상정보가 필요하다. 현행 개인정보 보호법상 AI 학습에 주행영상 등 영상정보를 활용하려면 정보주체의 동의를 받거나 해당 정보를 가명처리해야 한다. 당연히도 전자는 불가능하고 후자의 경우 보행자 인식률이 저하되는 등 정보의 가치가 떨어지게 된다. 이러한 상황을 타개할 수 있는 것이 규제샌드박스 실증특례 제도다. 이 제도는 사업자가 신기술을 활용한 새로운 서비스를 일정 조건 하에 시장에 우선 출시해서 시험, 검증하게끔 현행 규제 일부를 적용하지 않도록 허용해 준다. 사업자들은 이 실증특례 지정을 신청해서 허용받음으로써 강화된 안전조치 기준을 마련하고 개인정보보호위원회의 주기적 점검을 받도록 하는 등을 조건으로 가명처리하지 않은 영상데이터의 원본을 AI 학습에 활용할 수 있게 됐다. 매우 의미 있는 제도임에도 사업자들이 실증특례 제도를 적극적으로 이용하지 못하는 결정적인 이유가 있다. 규제에서 자유로워지는 것이 아니라 최대 4년의 기간 동안만 규제 적용을 유예 받을 뿐이기 때문이다. 유예 기간 내에 법령이 정비돼 관련 규제가 개선되지 않으면 해당 서비스는 다시 '임시허가'를 통해 시장에 출시해야 한다. 심지어는 유예 기간 중 처리해 왔던 방식에 따라 데이터를 처리하는 경우 법 위반으로 출시를 못하게 될 수도 있다. 개인정보보호위원회는 새해 주요 업무 추진계획 6대 핵심 추진과제 중 하나로 AI 시대에 부합하는 개인정보 법제를 정비하겠다고 공표한 바 있다. 그러면서 자율주행 AI 개발 등 가명처리만으로 연구 목적 달성이 곤란한 경우 원본 데이터 활용을 개인정보 심의, 의결 하에 허용하는 특례를 마련하겠다고 발표했다. 이는 현행 규제샌드박스 실증특례는 최대 4년 동안만 규제 적용을 유예해 준다는 한계를 극복하기 위한 조치로, 개인정보 보호법에 특례 규정을 신설해 AI 개발을 위한 원본 데이터 활용을 허용할 방침이다. 더불어 개인정보보호위원회의 심의·의결과 사후 점검 등의 조건을 둬 개인정보 보호도 함께 도모할 계획이다. AI 기반 기술과 시스템이 더욱 빠른 속도로 고도화돼 가고 있는 현 상황에서 AI 학습 목적의 원본 데이터 활용을 금지할 수 없다는 위원회의 결단으로 풀이돼 공감이 간다. 다만 추진계획에 따르면 이러한 내용이 담길 개인정보 보호법 개정안은 AI 개발 사업자의 '정당한 이익'이나 '공익' 등을 고려하도록 하고 있어 오히려 원본 데이터 활용이 예상외로 제약될 가능성이 있어 보인다. 추후 구체적인 개정안을 구체적으로 살펴봐야 하겠으나 신기술의 개발이 아닌 사회적 편익이나 공익을 고려해 특례를 허용할 경우 제도의 취지에도 불구하고 상당수의 AI 개발 사업은 이 특례 제도를 활용하기 어려워질 것이다. 위원회가 심결이나 사후 현장점검 등을 어떻게 운영할지도 특례 제도 활용에 있어서 매우 중요한 요소가 될 것으로 보인다. 우선 위원회가 업무 추진계획에서 밝힌 바와 같이 합리적이고 유연한 법 해석을 통해 신기술 변화와 현행 법 체계 간 간극을 완화하기 위해서는 위원회의 심결이 신속하게 이루어져야 할 것이다. 기존 규제샌드박스 실증특례는 유사 사례가 있는 경우 패스트트랙 제도를 통해 승인 기간을 평균 4~5개월에서 2개월로 단축해 운영하고 있는 상황이다. 심결 이후에도 위원회의 관리, 감독을 통해서도 사후 통제가 가능한 점을 감안할 때 심결은 가급적 간이하고 신속하게 이뤄질 필요가 있다. 위원회의 사후 관리, 감독도 지나치게 포괄적인 범위의 점검이나 자료제출 요구 등이 이뤄지지 않는지 검토가 필요하다. 심결이 간이하게 이뤄진다면 사후통제 기능이 어느 정도 작동해야 하겠으나 AI 개발 사업자 입장에서 사업 운영에 지장이 갈 정도로 관리, 감독 등이 이뤄진다면 사업자로서는 특례 제도를 고려할 실익이 없게 된다. 이 부분은 AI기본법의 제정 과정에서도 유사한 논란이 제기된 바 있다. 원본 데이터를 가명처리 없이 쓰도록 허용해 주는 특례 제도를 도입하더라도 어느 정도의 제한이 부여되어야 한다는 점은 충분히 공감한다. 다만 신기술 및 신산업 혁신 촉진을 도모하기 위해 도입되는 제도인 만큼 AI 개발 사업자들이 특례 제도를 활용할 '엄두'는 낼 수 있어야 한다. 사업자들의 애로와 현실을 충분히 반영한 합리적이고 유연한 법제도의 도입을 기대해 본다.

2025.02.03 10:17법무법인 태평양 상지영 컬럼니스트

[기고] AI 생성 결과물의 명암

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 생성형 인공지능(AI)의 발전은 창작 과정 전반에 혁신적인 변화를 가져오고 있다. AI는 텍스트, 이미지, 음악, 영상 등 다양한 콘텐츠를 생성할 수 있는 능력을 갖추고 있으며 이러한 기술은 창작자와 기업에게 새로운 기회를 제공하고 있다. 동시에 AI가 생성한 결과물에 대한 저작권 문제는 여전히 논란의 중심에 있다. AI는 창작 활동의 유용한 도구로, 과거에는 상상조차 어려웠던 방식으로 콘텐츠 제작을 가능하게 하고 있다. 누구나 간단한 입력만으로 고품질의 텍스트나 이미지를 생성할 수 있게 되면서 창작의 문턱이 크게 낮아졌다. 이는 소규모 창작자나 비전문가들에게 큰 이점을 제공하고 문화적 다양성과 창작물의 양적 증가를 이끄는 긍정적인 영향을 미치고 있다. 일례로 소규모 게임 개발자는 오픈AI '챗GPT'를 활용해 캐릭터별로 서사를 만들고 이를 조합해 스토리 라인을 구축할 수 있다. 또 그림 AI인 '미드저니'를 활용해 고품질의 캐릭터 및 배경 이미지를 제작하거나 음악 AI인 '주크박스'를 활용해 원하는 장르와 스타일의 음원을 생성하는 등 게임 개발에 있어 비용과 시간을 절약하는 것을 생각해 볼 수 있다. 이러한 AI 기반 도구는 전문적 기술 배경이 없는 일반 사용자에게도 창작의 문턱을 낮춰 보다 다양한 창작물이 등장하는 환경을 조성하는 데 기여한다. 그럼에도 AI 생성물에 대한 저작권 문제는 복잡하다. 저작권법의 핵심은 창작으로, 이는 인간의 창의적 노력과 아이디어에서 비롯된다. 그런데 AI는 인간의 창작적 개입 없이도 결과물을 생성할 수 있으며 이러한 경우 해당 결과물이 저작권 보호의 대상이 되는지에 대한 명확한 기준이 없다. 현재 대부분의 국가에서는 인간만이 저작권의 주체가 될 수 있다고 규정하고 있다. 이에 따라 AI가 생성한 결과물은 원칙적으로 저작권 보호를 받을 수 없다. 이는 AI를 활용하는 기업이나 개인들에게 법적 공백을 초래할 수 있다. 미국에서는 AI인 '창작 머신(Creativity machine)'이 생성한 작품인 '파라다이스로 가는 입구(A Recent Entrance to Paradise)'가 저작권 등록을 거절당한 사례가 있다. AI를 저작자로 표시해 AI 소유자의 업무상 저작물로 등록하고자 한 것이었는데 인간의 창작물이 아니라는 이유로 그 등록이 거절당한 것이다. 반면 AI와 인간의 협업으로 만들어진 작품의 경우 인간이 창작에 기여한 부분에 한해 저작권이 인정되기도 한다. 만화책 '여명의 자리야(Zarya of the Dawn)' 사례에서 미국 저작권청은 인간이 작성한 텍스트와 AI로 생성된 그림의 배열 및 조정을 편집 저작물로 인정했으나 AI가 생성한 그림 자체에는 저작권을 인정하지 않았다. 중국 법원에서는 AI가 생성한 이미지를 둘러싼 소송에서 원고가 프롬프트를 통해 이미지 제작에 창의적 기여를 했음을 인정해 저작물로 판단한 사례도 있다. 이는 프롬프트 입력 등 인간의 창의적 개입이 저작권 인정 여부의 핵심 기준이 될 수 있음을 보여준다. 국내에서는 아직 생성형 AI 저작권 문제에 대한 명확한 판결은 없지만 문화체육관광부가 지난 2023년 10월 발간한 생성형 AI 저작권 안내서에서는 인간만이 저작자가 될 수 있다고 밝혔다. 이에 따르면 AI 생성물 자체는 저작물로 보호되지 않으며 인간이 창작성을 부가한 경우에만 저작권 귀속 논의가 가능하다. 창작적 기여 여부와 그 정도는 법원의 판단에 따라 결정될 것이라는 입장이다. AI 생성물에 대해 저작권과 유사한 보호를 제공하거나 새로운 법적 지위를 도입하는 방안도 검토할 필요가 있다. 특히 현대미술의 난해함을 고려할 때 AI를 활용한 인간의 창의적 기여를 평가하는 명확한 기준을 마련해야 한다. 창작자의 권리와 기술 혁신의 조화를 이루는 법적 제도를 정립하는 것이 중요하다. AI 생성물은 창작의 가능성을 확장하며 우리의 삶에 혁신을 가져오고 있다. 다만 저작권 문제를 해결하지 않고서는 이러한 기술의 잠재력을 온전히 실현하기 어렵다. 법적, 윤리적 논의를 통해 AI 시대에 걸맞은 창작과 보호의 균형을 찾아야 한다. AI가 창작의 도구로 자리 잡는 과정에서 창작자와 기술 개발자 모두의 권리를 존중하는 법적 환경을 조성하는 것이 필수적이다.

2025.01.16 15:25법무법인 태평양 정상훈 컬럼니스트

[기고] 인공지능 기본법안 그 이후

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 지난해 노벨물리학상과 화학상 모두 인공지능(AI) 관련 연구자들에게 수여되며 AI에 대한 전세계적인 관심이 다시 한번 입증됐다. 특히 노벨물리학상을 수여받은 제프리 힌턴 캐나다 교수는 인간을 뛰어넘는 AI이 나올 것이라는 점을 예측하고 이후 그 위험성에 대해 다시 한번 경고를 해 세간의 화제가 됐다. AI 시대에 접어들면서 해당 기술로 인한 위험에 대한 관심도 증가하는 새해를 맞이하고 있다. 지난 2016년 알파고 등장 이후 AI에 대한 식었던 열망은 부활했다. 지난 2022년 '챗GPT' 등장으로 AI는 이제 우리 생활에서 편하게 접할 수 있는 서비스가 됐으며 요즘은 AI라는 단어가 포함되지 않은 광고를 찾아보기 힘들 정도의 시대에 접어들었다. AI가 실제 우리 생활을 편리하게 바꿔 주는 것인지 아니면 우리 생활을 위협하는지에 대한 질문이 제기되는 상황이다. 신기술의 등장은 언제나 우리 생활에 명과 암을 줬다. 우리의 선택은 그 중에서 편리한 점을 취하면서 위험을 최대한 줄이기 위한 노력의 과정이었던 것으로 생각된다. 인터넷 도입 당시와 유사하게 AI를 통한 편리함을 느끼지만 동시에 그 폐해에 대해서도 이야기를 하는 시대에 접어들게 됐다. 인터넷을 둘러싼 많은 법률관계들이 인터넷 등장 이후 장기간에 논의됐던 것과 같이 AI를 둘러싼 다양한 법률관계들도 점진적이지만 긍정적으로 발전할 것을 기대해 본다. AI 서비스에 대한 지원과 규제라는 두 마리 토끼를 잡기 위해 지난달 26일 국회는 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(AI기본법)'을 통과시켰다. 위 기본법안에는 AI 산업 활성화를 위한 산업 장려방안, AI 안전을 담보하기 위한 AI안전연구소 신설 등도 포함을 하고 있다. 이와 함께 사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI시스템(고영향 AI)에 대한 규제 및 생성형 인공지능에 대한 규제도 모두 포함됐다. 모두 주지하는 것과 같이 AI 자체는 선과 악을 구분할 수 없는 하나의 기술이다. 그럼에도 특정 목적과 영역에 사용하기 위해 개발된 AI와 생성형 AI(범용 AI)는 인간의 생명, 신체의 안전이나 기본권에 중대한 영향을 미칠 수 있다. 이에 따라 이들을 고영향 AI로 분류해 규제체계를 마련했으며 일반적으로 이용되는 생성형 또는 범용 AI의 경우에도 설명 의무 등을 부여하게 된 것이다. 그럼에도 특정 목적이나 특정 영역에 사용되는 AI 이외의 기타 유형 AI에도 분명 위험성은 존재한다. 다시 말해 제도적으로 정비를 해야 할 사항에 대해 기본법안을 통해 어느 정도 규제체계를 정비한 상황임에도 불구하고 일상적으로 발생할 문제에 대해서는 개별 논의가 필요하다. 또 우리가 주목해야 할 점은 AI 서비스에 대한 책임은 결국 구체적인 상황에서 정해져야 하는 것이며 이를 모두 서비스 사업자에게만 국한시킬 수는 없다는 것이다. 일례로 누군가가 수의를 입고 있는 모습을 딥페이크 기술로 합성해 게시할 경우 이에 대한 책임은 누가 져야 하는지에 대한 문제가 제기될 수 있다. 일각에서는 딥페이크 영상을 만들 수 있도록 서비스를 제공한 AI서비스 사업자에게 책임을 지게 해야 한다고 말하기도 한다. 그런데 인터넷 포털에서 명예훼손적인 글을 게재하는 경우 일차적으로 책임을 져야 하는 사람은 해당 이용자다. 위와 같은 사안에서도 그 일차적인 책임은 딥페이크 기술을 이용한 이용자여야 할 것으로 보인다. 다만 AI서비스 사업자들로서는 영상합성 기술에 대해 이용자들에게 경고를 하고 딥페이크로 인해 사람들이 속지 않도록 "해당 영상은 AI서비스 또는 기술을 통해서 생성됐다"고 알리는 역할을 하면 될 것으로 보인다. AI 서비스 또는 기술을 이용한 폐단은 향후에도 다수 발생할 수 있다. 이에 따라 개별적인 문제에 있어서 누가 책임을 우선 부담하는지, 이러한 폐단을 극복하기 위해 이용자들에게 어떠한 주의의무를 부과할 것인지, 또는 개별 인공지능에서 최소한의 어떠한 안전장치를 구현하도록 할 것인지 등에 대한 고찰이 필요하다. AI의 폐단만이 아니라 AI를 통한 생활의 편리함을 고려해 다양하고 구체적인 해결방안이 모색돼야 할 시점이다.

2025.01.03 15:59법무법인(유한) 태평양 윤주호 컬럼니스트

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, 차세대 낸드 판도 흔든다…'AIP' 기술 적용 검토

현대차·엔비디아·카카오, 자율주행 실증 시동…"AI로 역전 가능"

K팝을 만국의 오페라로…디지털 문화대제국 창시하다

"올림픽 맞아?"…밀라노 동계 올림픽 역대급 무관심 왜

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.