• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'법무법인 태평양'통합검색 결과 입니다. (29건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[기고] 야누스의 얼굴을 가진 인공지능

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 로마 신화에 '야누스'라는 신이 나온다. 출입문으로 드나드는 사람들을 보기 위해 앞뒤에 얼굴을 가진 출입문의 수호신으로 알려져 있다. 세상 만사의 시작을 지배하는 신이기도 해서 한해의 시작인 1월을 뜻하는 영어 단어 '제뉴어리(January)'에 그 흔적을 남기기도 했다. 다만 야누스는 앞과 뒤의 모습이 다른 두 얼굴을 가진 것으로 묘사돼 어떤 일의 양면성, 밝은 면과 어두운 면이 공존하는 것을 표현할 때도 쓰인다. 생성형 인공지능(AI) 기술이 발전하면서 상상 속에서만 가능해 보였던 일들이 현실이 되고 있다. AI 기술이 글 내용을 음성으로 읽어 주고, 음악을 만들고 이미지를 만들어 낸다. 실제로 연기하는 배우 없이 만들어낸 동영상이 크게 어색하지 않은 단계에 이르렀다. 이처럼 AI 기술이 빠른 속도로 발전하면서 AI에 대한 기대가 커지고 있다. 한편으로는 자칫 AI를 이용한 결과물로 인해 정보가 유통되는 생태계의 무결성이나 신뢰성에 영향을 미칠 수 있고, 이로 인해 잘못된 정보가 사실인 것처럼 유통되거나 소비자를 기만하는 등의 문제가 발생할 위험이 있다는 우려도 나온다. AI가 결과물을 생성해 내는 과정이 블랙박스처럼 돼 있고, AI를 통해 만들어낸 결과물이 실제 존재하는 것과 구별하기 어려울 정도라, AI를 이용해 생성하는 결과물을 법률적으로 어떻게 다룰 것인지에 대한 논의도 한창이다. 유럽연합(EU)은 AI법을 제정하며 AI 시스템이 적절한 추적과 설명이 가능한 방식으로 개발 및 사용되고, 인간이 AI 시스템과 상호작용하거나 소통하고 있다는 사실을 인지해야 한다는 '투명성 원칙'을 밝혔다. EU AI법은 이런 원칙에 따라 AI 시스템 제공자가 사람이 아닌 AI 시스템에 의해 결과물이 생성됐음을 감지할 수 있는 기술적 솔루션을 시스템에 내장하도록 했다. 이러한 기술적 솔루션에 더해 AI 기술로 만든 결과물이 기존의 인물, 장소 또는 사건과 현저히 유사해 보는 사람으로 하여금 실제 사실인 것처럼 잘못 인식하게 하는 딥페이크에 대해서는 해당 콘텐츠가 AI에 의해 생성된 것이라는 점을 배포자로 하여금 표시하도록 했다. 우리나라도 'AI 기술 등으로 만든 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등'을 '딥페이크 영상 등'이라 정의했다. 선거일 전 90일부터 선거일까지 선거운동을 위해 딥페이크 영상 등을 제작, 편집, 유포, 상영 또는 게시하는 행위를 하지 못하도록 선거법을 개정했다. 선거운동 기간이 아닌 때도 선거운동을 위해 딥페이크 영상 등을 제작, 편집, 유포, 상영 또는 게시할 때 선관위 규칙으로 정하는 바에 따라 AI 기술 등으로 만든 가상의 정보라는 사실을 명확하게 인식할 수 있도록 표시하게 했다. 선거운동의 자유를 최대한 보장하면서도 선거의 공정성을 확보하기 위해 AI 기술 등을 이용해 만든 콘텐츠라는 사실을 누구나 쉽게 알아 볼 수 있도록 표시할 의무를 둔 것이다. 최근 국회 소관 상임위를 통과한 AI기본법 제정안도 AI사업자가 생성형 AI 또는 이를 이용한 제품 또는 서비스를 제공하는 경우 그 결과물이 생성형 AI에 의해 생성됐다는 사실을 표시하도록 정했다. 또 AI시스템으로 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등의 결과물을 제공하는 경우 해당 결과물이 AI시스템에 의해 생성됐다는 사실을 이용자가 명확하게 인식할 수 있는 방식으로 고지 또는 표시하도록 했다. 다만 AI로 만든 모든 콘텐츠에 'AI를 이용해 생성한 결과물'이라는 표시를 할 필요가 있을지는 의문이다. 선거 등 정보의 출처가 중요한 경우, 또 개인의 인격권 침해가 될 수 있는 경우에는 그 콘텐츠가 AI에 의해 생성된 것인지를 표시할 필요가 있다. 그러나 이러한 경우가 아닌 모든 경우에 표시가 필요할지, 표시를 한다면 어떠한 방식으로 할 것인지, 동영상, 이미지, 텍스트 등 각 콘텐츠의 특징을 고려해 콘텐츠 자체를 향유하는데 방해가 되지 않는 방식이 무엇일지 등 여러 가지 논의가 필요해 보인다. 로마인들은 야누스의 얼굴 중 한쪽은 과거를, 다른 한쪽은 미래를 본다고 생각했다고 한다. 야누스를 세상일의 복잡한 측면, 과거와 미래를 함께 보며 균형을 잡아주는 수호신으로 생각했던 것 같다. AI이 가진 두 얼굴도 균형을 이룰 수 있도록 제정되는 법률이 야누스의 역할을 하기를 기대한다.

2024.12.23 17:23유재규

[기고] AI 발전과 아동·청소년 보호

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)의 비약적인 발전은 우리의 일상생활에 깊숙이 스며들며 효율성과 편리함을 극대화하고 있다. 개인화된 추천 시스템부터 의료, 교육, 공공서비스에 이르기까지 우리가 직면한 많은 문제를 해결하는 데 기여하고 있다. 그럼에도 눈부신 기술발전의 이면에 존재하는 부작용을 간과할 수 없다. 특히 AI 기술발전이 아동·청소년처럼 기술적 맥락에 취약한 집단에 대해 미칠 영향에 대한 진지한 고민이 필요하다. 오늘날 소셜 네트워크 서비스(SNS)는 단순한 소통의 매개체를 뛰어넘어 거대한 상업적 플랫폼이 됐다. 주요 SNS 기업들은 사용자의 이용패턴, 관심사 등을 분석해 AI 알고리즘에 학습시켜 광고를 포함한 콘텐츠를 추천하는 서비스를 주 수익모델로 삼고 있다. 그런데 이러한 과정에서 대규모의 개인정보 및 데이터 수집과 분석이 이루어지기 때문에 프라이버시와 개인정보 침해 우려가 상존한다. 특히 아동·청소년의 의사결정과 정서에 부정적 영향을 미칠 가능성이 높다. 아동·청소년은 자신이 보는 콘텐츠와 광고가 어떤 의도로 설계되었는지 이해하기 어렵고 이는 무절제한 소비, 유해하거나 부적절한 콘텐츠에 대한 노출, 정체성 혼란과 같은 부작용으로 이어질 수 있기 때문이다. 세계 여러 나라에서는 이같은 문제의식을 기반으로 디지털 환경에서 아동·청소년을 보호하기 위한 방안을 모색하고 있다. 최근 호주가 세계 최초로 16세 미만 미성년자의 SNS 이용을 전면 금지하고 이를 위반한 업체에게 최대 450억원의 벌금을 부과하기로 하는 강력한 법안을 통과시켜 화제가 됐다. 호주는 지난 2022년 1월부터 시행된 '온라인 안전법 2021(Online Safety Act 2021)'에서 '아동을 대상으로 하는 사이버 폭력 자료'를 규정하고 서비스제공자에게 관련 자료를 최소화하기 위한 조치의무를 부과하고 있다. 영국에서는 지난 2017년 몰리 러셀이라는 14세 아동의 자살로 아동에 대한 SNS의 책임에 관한 논의가 촉발된 바 있다. 약 6년간의 논의 끝에 지난 2023년 10월 '온라인 안전법 2023(Online Safety Act 2023)'이 제정 및 공표됐다. 이 법에서는 아동성착취∙성학대 등 범죄에 해당하는 불법콘텐츠와 자살이나 자해, 혐오나 사이버괴롭힘, 그밖에 심각한 위해를 초래할 가능성이 있는 유해콘텐츠를 규정하고 서비스제공자가 불법∙유해콘텐츠를 발견하면 신속히 삭제 또는 차단하도록 했다. 미국 상원은 지난 7월 30일 '아동 온라인 안전법안(KOSA)'과 '어린이 및 10대 온라인 프라이버시 보호법 개정안(COPPA 2.0)'을 묶은 입법 패키지(KOSPA)를 의결했다. 'KOSPA'는 아직 하원 통과를 남겨두고 있지만 미국에서 지난 1998년 제정된 'COPPA' 이후 수십년 만에 연방 차원에서 온라인 아동보호를 위한 주요 법안의 제정을 추진한 것이라는 점에서 의미가 있다. 'KOSA'는 17세 미만 미성년자가 사용할 가능성이 큰 온라인 플랫폼에 대해 ▼정신건강 장애 ▼중독 ▼정신적·신체적 폭력 및 괴롭힘 ▼불법 약물 관련 홍보 및 마케팅 ▼성적 착취 및 학대 ▼약탈적 및 기만적 마케팅 또는 금전적 피해 등 미성년자에게 발생할 수 있는 특정 유해 요소들을 완화하기 위한 조치를 취했다. 합리적인 조치를 취해야 한다는 '주의의무(duty of care)'를 부과하면서 서비스제공자의 관리책임을 콘텐츠 자체가 아니라 서비스의 설계를 중심으로 구성했다는 것이 특징이다. 'COPPA 2.0'은 지난 1998년 제정된 'COPPA'의 개정안으로, 법 적용을 받는 미성년자의 최소연령을 13세에서 16세로 상향해 17세 미만 사용자의 개인정보를 동의없이 수집할 수 없도록 규정하고 아동·청소년을 대상으로 한 맞춤형 광고를 금지하며 '지우기 버튼(Eraser Button)'을 도입해 아동·청소년이 본인의 개인정보를 삭제할 수 있는 기능 제공을 의무화했다. 또 현행법의 '실제 인지(actual knowledge)' 기준을 수정해 플랫폼이 사용자가 미성년자임을 몰랐다는 주장을 할 수 없도록 했다. 국내 법상 디지털 환경에서 아동·청소년을 보호하기 위한 별도의 법령이 존재하지는 않는다. 다만 개인정보보호법상 만 14세 미만 아동의 개인정보처리를 위해서는 법정대리인의 동의를 받도록 하는 규정(제22조의 2), 아동·청소년의 개인정보 처리자를 위한 가이드라인(개인정보보호위원회, 2022. 7. 22.), 만 14세 미만 아동에게 맞춤형 광고를 제공하려면 법정대리인의 동의를 받도록 하는 조치(개인정보보호위원회, 맞춤형 광고에 활용되는 온라인 행태정보 보호를 위한 정책방안, 2024. 1.)들을 마련해 나가고 있는 것으로 보인다. 아동·청소년의 취약성 및 보호필요성을 고려하면 이들에게 AI에 기반한 서비스를 제공하는 사업자에게 상대적으로 많은 책임을 부여할 수밖에 없게 된다. 해외의 규제 흐름도 전반적으로 그러한 방향인 것으로 보인다. 그럼에도 이에 대해서는 표현의 자유 침해, 콘텐츠 검열 가능성 등 위헌적 요소가 존재한다는 비판이 대립하고 있어 지속적인 논의와 연구가 필요하다. 더 나아가 아동·청소년의 권리를 보호하는 규제를 설계하기 위해서는 현대 사회의 디지털 환경이 아동·청소년의 발달에 필수적인 조건이며 알권리와 참여권 실현에 긍정적 역할을 할 수 있다는 점, 아동·청소년 이용자가 단지 피해자에 머무는 것이 아니라 쉽게 가해자의 지위에 놓일 수 있다는 점까지 종합해 섬세한 접근이 필요할 것이다.

2024.12.08 13:09법무법인 태평양 노은영

[기고] AI 시대의 담합 규제, 알고리즘 담합

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 알고리즘(Algorithm)은 특정 값을 입력하면 정해진 작업 목록에 따라 값을 산출하는 기계·체계적 구조로, 전산 처리의 기본적인 구성 요소로 활용된다. 알고리즘은 주로 머신러닝과 인공지능(AI) 기술을 기반으로 발전하고 있으며 시장의 다양한 분야에서 사용되고 있다. 담합의 '독점규제 및 공정거래에 관한 법률(공정거래법)' 상 정확한 명칭은 '부당한 공동행위'로, 담합이 성립할 수 있는 유형은 공정거래법 제40조 제1항에 따라 매우 다양하다. 담합은 복수의 사업자 간의 '합의(의사의 합치)'를 요건으로 한다. 합의는 계약, 협정, 협약, 결의와 같은 '명시적 합의' 뿐만 아니라 암묵적 양해와 같은 '묵시적 합의'도 포함한다. 이와 함께 지난 2021년부터 시행된 전면 개정 공정거래법에서는 제40조 제1항 제9호에 따라 '정보교환'을 통한 담합 행위를 신설해 금지하고 있다. 이는 사업자 간의 정보교환이 경쟁을 제한하는 수단으로 활용될 수 있다는 우려에서 비롯됐으며 가격, 생산량 등 민감한 정보를 교환함으로써 묵시적 담합이 이루어질 가능성이 높아짐에 따라 이를 명확히 규제하기 위한 목적이다. 알고리즘의 발전은 경쟁법에서 새로운 논점을 제기하고 있으며 그 중에서도 알고리즘 담합은 뜨거운 감자다. 일반적으로 알고리즘의 사용은 시장의 투명성을 높이고 사업자 간 경쟁을 촉진하는 긍정적인 효과를 가져온다. 우리가 흔히 사용하는 가격 비교 서비스가 그 대표적인 예다. 그럼에도 알고리즘이 주요 거래정보를 분석해 사업자 간 예측 가능성을 높이는 경우 묵시적 담합이 이뤄지는 환경을 제공할 수 있다. 전문가들이 알고리즘 담합에 주목하기 시작한 것은 구글, 아마존과 같은 대형 플랫폼과 우버, 에어비앤비와 같은 공유 경제 기업이 비약적으로 성장한 지난 2010년대 중반부터다. 이 중 '마이어 대 우버(Meyer v. Uber Technologies, Inc.)' 소송이 가장 유명한데 이는 개인 원고인 스펜서 마이어가 우버의 가격 책정 알고리즘이 운전자들 간의 가격 담합을 조장한다고 주장하며 제기한 민사 소송이다. 해당 소송은 우버가 제기한 중재 합의 주장이 받아들여져 법원의 본안 판단 없이 중재로 마무리됐지만 새로운 경쟁법적 과제에 대한 중요한 논의를 촉발시키는 계기가 됐다. 이같은 우려 속에서 각국 경쟁 당국은 알고리즘 담합에 대응하기 위해 적극적인 조사 및 규제 움직임을 보이고 있다. 최근 미국에서는 개인 원고들이 애틀랜틱 시티와 라스베이거스의 호텔들을 대상으로 호텔들이 센딘(Cendyn)의 '레인메이커(Rainmaker)' 소프트웨어를 통해 실시간 가격과 점유율 데이터를 공유하며 가격을 담합했다고 주장하며 소송을 제기했다. 이에 미국 법무부와 연방거래위원회는 해당 소송에서 의견서를 제출하면서 경쟁사들이 공통의 알고리즘을 사용해 가격을 설정하는 행위가 명시적 합의 없이도 담합으로 간주될 수 있다고 평가했다. 또 알고리즘을 통한 가격 설정이 경쟁 제한적 효과를 가져올 수 있고 이러한 행위가 반독점법 위반에 해당할 수 있다는 점을 강조했다. 그럼에도 두 소송 모두 원고가 가격 담합을 입증할 충분한 증거를 제시하지 못했다는 이유로 기각됐다. 법원은 해당 알고리즘을 통해 경쟁사들의 기밀 내지는 비공개 정보가 교환되지 않았고 알고리즘은 단지 가격을 추천 내지 권장할 뿐이지 각 호텔들이 알고리즘의 가격 추천에 구속되지 않았다는 점을 주요 판단 근거로 삼았다. 이에 비추어 볼 때 알고리즘을 통해 사업자간 기밀 정보가 교환될 경우 담합이 성립할 가능성이 높으며 알고리즘의 가격 추천에 대한 구속력이 없다고 보여질 경우 담합으로 인정되기 어려울 것으로 생각된다. 국내 법원도 묵시적 담합의 인정과 관련해 신중한 태도를 보여왔으며 정보교환만으로는 합의가 추정되지 않고 사업자간 묵시적 합의를 인정할 정도의 의사연결의 상호성이 존재해야 한다는 입장을 취해 왔다. 그런데 알고리즘 담합은 알고리즘이 자동적으로 정보를 저장하고 거래에 반영하는 구조이기 때문에 단순한 정보교환을 넘어서 묵시적 합의를 구성하기 어려운 장애물이 다수 존재한다. 이 같은 상황에서 공정거래법은 정보교환을 부당한 공동행위의 유형으로 포함시켰다. 이에 따라 알고리즘과 관련해 사업자 간 담합으로 볼 수 있는 외형상 일치와 정보교환이 존재할 경우 이를 담합으로 규제할 수 있는 근거 규정을 보완했다. 알고리즘이 경쟁 제한 효과를 초래할 가능성이 높아짐에 따라 알고리즘 담합에 대한 규제는 향후 디지털 경제에서 공정성과 혁신을 조화롭게 유지하기 위한 필수적인 과제가 될 것으로 예상된다. 기술의 발전과 법적 규제 간의 괴리를 줄이기 위해서는 알고리즘 담합과 관련한 보다 세분화된 판단 기준과 지침이 필요할 것으로 생각된다. 이전까지는 각국 경쟁 당국의 조사 추이 및 최종 판단을 유의 깊게 지켜봐야 할 것이다.

2024.11.22 11:11법무법인(유한)태평양 변채영

오픈AI 'o1'로 AGI 시대 성큼…"정부·기업, 개발 투명성 고려 필수"

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개하면서 일반인공지능(AGI) 시대를 향해 한 걸음 더 나아갔다는 평가를 받는다. 이달 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 o1 프리퓨 버전과 미니 버전을 블로그를 통해 공개했다. 이 모델 시리즈는 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제를 해결할 수 있다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. AI 업계가 고도화된 기술을 쏟아내고 있는 만큼 중요하게 부각되는 부분도 생겼다. 바로 AI 규제다. 현재 미국은 캘리포니아 AI 안전법을 통과시켜 개발 투명성과 안전성 부각에 나섰다. 유럽연합(EU)은 물론이고 캐나다와 영국, 일본도 마찬가지다. 이에 발맞춰 국내서도 최소한의 투명성 관련 규제가 필요하다는 의견이 나오고 있다. AGI 시대로 다가갈수록 AI 기반 솔루션과 결과물이 예측 불가하다는 이유에서다. 법무법인 태평양 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 고도화된 AI 시스템이 산업계에 안착하기 위해 필요한 법안에 대해 이야기 나눴다. 생성형 AI와 관련한 딥페이크, 저작권 문제, 근로 환경 등 이슈에 대한 의견도 공유했다. 법무법인 태평양은 AI팀 활동을 올해 초 본격화했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. Q. 지난주 오픈AI가 사람처럼 추론할 수 있는 고급 모델을 내놨다. 산업계가 AI 시스템 고도화를 신속히 진행하고 있다. 이럴수록 AI 규제 필요성이 더 높아지지 않을까. 윤: 그동안 기업이 AI 시스템 고도화를 위한 기술을 꾸준히 내놨다. 앞으로 기존 개발 틀을 벗어나진 않을 것 같다. 다만 고도화된 AI 시스템으로 무엇을 만들지 아무도 예측할 수 없다. 결국 AGI 등 고도화된 AI 시스템이 산업에 안착하려면 최소한 규제는 필요할 것이다. 이중 개발 투명성이 가장 중요하다. 정부가 개발자나 AI를 사용하는 기업에 데이터 사용 방식이나 모델 알고리즘에 대해 질문을 요구할 수 있는 규제가 필요하다. 다만 AI 산업이 어느 정도 성장한 단계에서 해당 규제를 추진해야 할 것이다. Q. 기업이 정부에게 AI 기술을 의무로 공개하는 법 정도로 이해하면 되는 건가. 조금 더 구체적으로 설명해 달라. 윤: AGI는 지금보다 훨씬 더 고도화된 AI 시스템이다. 그동안 전문가들은 AI 모델에서 파생되는 새 기술을 예측할 수 있었다. 반면 고도화된 AI 시스템이 출현하면, 예측할 수 없다. 기술 불확실성이 커진다는 의미다. 정부는 AI의 불확실성과 그로 인한 잠재적 위험을 관리하기 위한 최소한의 조치 정도로만 규제를 설정하면 된다. 개발자나 기업이 AGI로 특정 결정을 내릴 때 그 결정 과정이나 근거를 정부에 설명하거나 공개할 수 있는 체계다. 정부는 향후 이런 법안을 입법에 넣어야 한다. 이보다 더 강력한 규제는 삼가야 한다. 오히려 기술 중립성을 해칠 수 있다. Q. 현재 국내에선 현존 AI 기술로 인한 이슈가 많다. 딥페이크가 대표적이다. 정부가 딥페이크 피해 방지를 위해 여러 법안 제정을 추진 중이다. 충분히 피해를 최소화할 수 있을 것으로 보는가. 강: 방송통신위원회가 제정을 추진 중인 이용자보호법에는 딥페이크 피해 방지를 위해 AI로 생성된 콘텐츠에 AI 생성물 표시를 의무화하는 법 등을 도입할 것으로 보인다. 그러나 표시 의무 규정 법안만으로 문제를 완벽히 해결할 수 없다. 딥페이크 영상물에 AI 생성물 표시 의무를 부과하면, 일차적으로 허위 정보 확산을 방지하고 제작자·유포자에게 책임은 물을 순 있다. 그러나 딥페이크 제작자나 유포자의 거짓 고지 가능성이 있다. 이용자보호법이 문제 해결에 실효성있게 작동하려면 정부는 지금보다 디테일한 집쟁 정책을 운영해야 한다. Q. 최근 미국 캘리포니아주가 AI 안전법 'SB 1047'을 통과시켰다. 거대 AI 모델에 대한 강력한 규제를 담고 있는 법안이다. 일각에선 SB 1047이 책임소재와 범위가 과도하다는 지적이 나오고 있다. 이를 어떻게 평가하는지. 강: 해당 법안에는 AI로 인한 핵심 피해 방지를 위한 안전 평가 관련 내용과 AI 모델 개발자들에 대한 독립적 제3기관에 의한 감사, 보고의무, 학습을 포함한 AI 모델 기능을 중단시키는 전제 중단 기능 구현, 공공 안전 위협에 대한 징벌적 손해배상 등 내용을 담고 있다. AI가 가져올 위험을 통제할 수 있는 장치가 필요하다는 점에 대해서는 공감한다. 다만 이런 강력한 규제는 이미 기술·산업적으로 최정점에 서 있는 국가에서나 효율적일 수 있다고 본다. 오히려 시장에 진입하고자 하는 해외 경쟁업체들에 진입장벽으로 기능할 수도 있다. Q. 해당 법이 최종 승인되면 다른 나라 AI법에도 영향 미칠 전망이다. 국내 정부도 SB 1047과 노선을 같이할 수 있는 법안을 마련할 것으로 보는가. 강: 현재 과학기술정보통신부에서 제정을 추진하고 있는 AI 기본법은 AI 산업 진흥에 관한 법률이다. AI 시스템 규제에 초점을 맞추고 있는 법은 아니다. SB 1047처럼 AI 안전 평가, 제3자에 의한 감사·보고 의무 같은 강력한 규제 사항들이 포함되지 않을 가능성이 있다. 정부가 AI 관련 제도를 마련하는 과정에서 EU나 미국 등의 AI 관련 규제 정책 사례를 참고할 수는 있다. 다만 국내 AI 산업은 아직 성장단계에 있다. 과도한 규제가 가해질 경우 산업 자체가 위축될 수 있다는 점 고려해야 한다. 이후 고도화된 AI 시스템 대비를 위해 개발 투명성 등 적절한 규제를 추가하면 된다. Q. 저작권 이슈도 생성형 AI 산업서 많이 거론되는 주제다. 기업 노력만으로 해결할 수 있는 문제가 아니라는 평가가 이어지고 있다. 윤: 그렇다. 그동안 학습용 데이터를 무료로 이용하는 행위에 관대한 분위기였다. 챗GPT 출현 후 저작권 이슈가 나오고, 지난해 하반기부터 소송이 이어지면서 분위기가 달라졌다. 데이터 활용이 유료로 전환될 필요가 있다는 목소리가 나와서다. 이미 데이터 학습을 AI 모델에 충분히 진행한 업체나 대기업은 이에 동의하는 입장이다. 저작권 이슈는 생성형 AI 산업계와 저작권 관련 업계가 공감대를 형성해야 한다고 본다. 이는 법 마련보다 더 시급한 과제다. 지난해 저작권위원회와 문화체육관광부가 생성형 AI 저작권법 제정에 나선 바 있다. 안타깝게도 결과가 잘 안 나왔다. 당시 양측 공감대가 없었기 때문이라고 본다. 지난해 국회도 저작권법 논의 때 해결 주제를 이야기하긴 했다. 아직 마침표를 찍지 못했다. 정부가 나서서 속도감 있게 생성형 AI 산업계와 저작권 관계자 등으로부터 의견을 충분히 모으는 역할을 해야 할 것 같다. Q. 생성형 AI가 산업에 도입되면 근로 환경도 변할 것이란 전망이 나오고 있다. 기업이 직원을 AI로 대체하는 과정에서 법률적 문제를 겪을 것으로 보인다. 윤: 단정 짓기 어려운 문제다. 국내에 AI와 근로법이 충돌한 사례가 아직 없기도 하다. 다만 기업이 신규 채용을 줄이는 방식을 가장 합리적인 선택으로 볼 것 같다. 이 부분에서도 정부 역할은 필요하다. 기업이 신규 채용을 너무 줄이면 정부가 정책을 통해 관리를 해야 한다. 기업과 근로자 공감대 형성도 도와야 할 것이다. Q. 이슈를 종합해 볼 때 앞으로 AI 윤리 중요성이 높아질 것 같다. 최근 기업들이 사내에 AI 윤리위원회를 설치해 AI 개발·활용에 지켜야 할 수칙을 정하는 추세다. 올바른 방향으로 가고 있다고 보는가. 강: 최근 대기업 중심으로 AI 거버넌스를 추진 중인 걸로 알고 있다. AI를 개발·활용할 때 지켜야 하는 원칙 틀을 만드는 추세다. 이런 원칙은 국내에서 한 10개쯤 나와 있다. 문제는 원칙에 디테일이 부족하다는 점이다. 사실 이런 건 법률가들이 잘할 수 있는 업무다. 현재 법률 지식과 기업 사정에 가장 알맞은 디테일을 만들어야 해서다. 그렇지 않으면 거버넌스를 만들어도 AI 이용·개발에 충분히 적용할 수 없을 것이다. Q. 국내 기업이 AI 윤리위원회 설치를 활성화하려면 무엇이 필요한가. 강: 모든 기업이 AI 윤리위원회 필요성을 알고 있다. 다만 위원회만 만들고 끝나는 게 아니라, 실제 회사 내에서 높은 수준의 중요성을 가져야 한다. 이사회 의장 또는 최고경영자가 이를 정말 중요하게 생각해야 한다. 이들이 위원회를 지지해야 결정권도 가질 수 있어서다.

2024.09.18 13:19김미정

"국내 첫 AI팀 꾸려"…태평양이 내다본 한국 AI법 방향은?

유럽연합(EU)이 생성형 인공지능(AI)법 추진을 본격화하면서 전 세계가 분주하다. 미국을 비롯한 캐나다, 영국, 일본 등 각국 정부는 AI 거버넌스 구축을 위해 연구소를 설립하고 대규모 투자를 하는 등 자국 AI법 마련에 나섰다. 한국도 마찬가지다. 정부가 AI안전연구소를 설립하고, 새로 출범한 22대 국회도 AI법 제정에 속도를 내고 있다. 당장 AI법에 영향 받을 대상은 기업이다. AI 기술이나 솔루션 출시를 위해 개인정보법, 데이터법 등 민감한 AI 규정을 세세하게 지켜야 하기 때문이다. 기업들은 원활한 AI 사업과 해외 시장 진출을 위해 AI법에 높은 관심을 기울일 수밖에 없다. 법무법인 태평양은 이런 상황을 4년 전부터 예측·준비해 왔다. 그동안 태스크포스(TF)형태로 운영됐던 AI팀은 올해 초 활동을 본격화 했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. 태평양 AI팀장 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 태평양 AI전담팀 특장점을 비롯한 인력 구성 등을 소개했다. 미국·EU AI법에 대한 평가와 향후 한국 AI법이 나아가야 할 방향성에 대해 자세히 들어봤다. Q. 태평양이 국내 첫 AI전담팀을 꾸렸다고 들었다. 이에 대한 배경은. 강: AI팀을 구축한 결정적 계기는 2017년 '이루다' 사건 변호 직후다. 국내에서 AI와 개인정보 보호법을 동시에 다룬 첫 사례다. 변호인단은 재판 뒤 6개월 동안 이루다 관계자들과 개인정보 보호법 위반 사항을 수정하고 데이터 정비를 도왔다. 당시 태평양은 AI와 데이터 처리, 개인정보 이슈 자문 수요가 늘 것으로 추측했다. 예상이 맞았다. 현재 기업들은 태평양의 이루다 데이터 정비 사례를 필수 참고하기 때문이다. 이후 금융권 AI 거버넌스 구축을 도왔다. 농협 사례가 대표적이다. 금융권 AI 컴플라이언스 리뷰 업무까지 맡았다. 산업이 생성형 AI를 구축할 때 법률 리스크 판단을 필요로하다 보니 관련 프로젝트가 꾸준히 들어오는 것 같다. Q. 태평양 AI팀 인재를 새로 영입했는지. 강: 외부에서 AI전문변호사를 영입하진 않았다. 내부 변호사들이 팀을 꾸렸다. 역량이 충분했기 때문이다. 태평양에 항공이나 전자 등 공대 출신 변호사가 많다. 일부 전문위원도 데이터 분야 업무를 수십 년 했다. Q. 현재 국내 로펌들이 AI팀을 꾸리기 시작했다. 팀 필수 역량을 무엇으로 보는지. 윤: 해외 AI법 동향을 잘 파악하는 게 관건이다. 국내 기업이 미국이나 유럽 등에 서비스를 원활히 제공할 수 있게 도와줘야 해서다. 한국에 도입될 가능성 높은 해외 AI규제를 먼저 알아야 한다. 국내 로펌이 해외 로펌들과 활발한 소통을 유지해야 하는 이유다. 태평양은 해외 로펌과 지속적인 컨퍼런스 콜을 통해 AI 정보를 꾸준히 교류하고 있다. 이런 네트워킹을 통해 해외 AI법 동향을 빠르게 수집하고, 한국화하는 데 힘쓰고 있다. 미국·유럽 로펌 세 곳과 정보 공유를 가장 자주 한다. Q. EU AI법과 달리 미국식 AI법은 상대적으로 자율적일 것이란 평가가 나오고 있다. 윤: 미국식 AI법도 EU AI법처럼 규제를 조만간 할 것 같다. 차기 정권이 AI법을 아예 자율 규제로 끌고 갈지, 아니면 기업들에게 가이드를 주고 자율적으로 이를 지키도록 할 건지가 관건이다. 향후 미국식 법은 이 둘 중 하나로 갈 것이다. Q. 미국 대선 결과가 미국 AI법 방향성을 결정할까. 윤: 아직 정해진 바 없다. 모두 아는 것처럼 카멀라 해리스 민주당 대통령 후보는 도널드 트럼프 공화당 후보보다 엄격한 AI법 방향성을 제시할 수도 있다. 트럼프 후보는 현재 바이든 행정부가 추진하는 AI 규제조차 빼자고 주장한다. 이에 미국 빅테크도 트럼프 정부 시절이 지금보다 더 좋았다는 분위기다. 해리스 후보가 당선되면 현재 구조를 유지할 것 같고, 트럼프 후보가 대통령이 되면 AI법이 통상무역 형태로 갈 것 같다. Q. 그런 분위기가 한국에 영향 미칠까. 강: 확실한 건 한국이 AI 개발 인프라를 미국서 갖고 올 때 지금보다 높은 비용을 지불할 수 있다. 이 전제에서 국회의원들은 국내 AI 산업 육성과 자립적인 기술 개발 필요성을 주장할 것이다. 특히 네이버 등 국내 대기업들이 엔비디아 AI칩 구매를 원활히 할 수 있도록 지원해야 한다고 목소리를 높일 것이다. 물론 자유 무역 체계에 따라 기술을 거래하는 건 상관없다. 그러나 AI 기술은 다르다. 단순히 통상적 방식으로만 이뤄질 문제가 아니라서다. 정부는 소버린AI 등을 간과하고 단순히 자유무역 체계에 따라 AI 무역 업무를 처리하면 안 된다. AI 기술 출처나 국가적 배경에 따라 복합적 문제가 발생할 수 있기 때문이다. 한국이 해외와 AI 무역할 때 각국 기술적, 정치적 배경을 고려한 기준을 마련해야 한다. Q. 22대 국회가 AI법을 논의하고 있다. 기본법 틀을 어떻게 만드는 것이 좋을까. 윤: 미국·EU AI법을 무조건 참고하는 것보다 한국적 상황에 맞는 AI 산업 진흥법을 갖춰야 한다. 특히 국내에 AI 보안 문제가 늘고 있다. 정부가 이 문제를 해결하지 않으면 AI 산업은 성장하지 못한다. 이를 위한 위원회를 설치하는 등 국내에 맞는 방향성이 필요하다. 물론 규제도 필수다. 지금 만들지 않으면 안 된다. 향후 EU가 자국 규제법을 따르라고 강제할 것이기 때문이다. 일단 규제 체계를 큰 틀로 만드는 게 급선무다. 규제 범위를 어떻게 정할 것인지, 강도를 어느 정도 설정할 것인지 등은 이후 조정하면 된다. 강: 최종적으로 국내 AI법이 어떤 모습일지 아무도 장담할 수 없다. 행정안전부와 과학기술정보통신부가 AI법에 대해 생각하는 것이 다르고 국회 시각도 이와 다르기 때문이다. 행안부는 강한 AI규제법을 주장하지만 과기정통부는 이를 좀 풀어주자는 의견이 지배적이라서다. Q. 이번 국회는 위험한AI와 금지된AI를 어떻게 정할지도 논의 중이다. 이에 대한 입장은. 윤: 이런 규정은 EU AI에서 왔다. 사실상 한국 정서에 맞지 않는 규정 방식이다. 물론 고위험AI는 존재할 수 있다. 관건은 한국 기업이 고위험AI로 만든 서비스를 제공한 적 있느냐는 것이다. 아직 없다. EU는 법을 이론적으로 접근하고 있다. 그래서 이런 법은 국내서 문제 될 수 있다. 실제 인간 생존과 직결되는 건 당연히 고위험AI로 지정돼야 한다. 이론상 고위험AI 논의가 필요하면 진행 가능하다. 그런데 현실에서 이 부분은 더 논의돼야 한다. Q. 현재 EU도 이 부분에 대해 골치 아플 것 같다. 윤: 그렇다. 지금 EU도 고위험AI 기준을 완전히 마련하지 못했다. EU는 제3자 적정성 평가를 통해 AI를 고위험으로 분류할 방침이다. 문제는 아직 평가 기준조차 없다. EU는 2026년 8월부터 고위험AI에 대한 리스크 세부사항을 내놔야 한다. 딱 2년 남았다. 타임라인에 맞춰 완전한 평가 기준을 만들려면 지금 시작해도 빠듯하다. 강: 결국 AI 규제는 분명히 필요하다. 다만 구체적으로 어느 AI 시스템을 얼마나 규제할 것인지에 대한 문제는 다르다. 이런 정도는 국가·사례마다 다를 것 같다. 큰 틀로 규제를 서둘러 마련하고, 세부적으로 지정할 것과 추가 판단할 것을 정해야 한다. Q. EU AI법이 전 세계에 본격적으로 영향 미치면 국내 시장은 어떻게 변할까. 윤: 국내 시장은 두 가지 특징을 보일 것 같다. 우선 EU AI법에 맞춰 유럽형 서비스를 제공하려는 국내 AI 기업이 생길 것이다. 이는 로펌뿐 아니라 다수 전문가가 예측하는 AI 시장 모습이다. 특히 국내 대기업이 AI규제 기준을 주도할 것으로 본다. 다만 한국 AI법만 기준으로 설정하지 않을 것이다.국내 기업들은 정부가 해외 규제를 따를 가능성을 높이 보기 때문이다. 이에 대기업은 미국·EU AI법이 국내에 들어오는 정도, 범위 등을 판단할 것이다. 이를 자문하는 로펌 역할이 더 중요해질 전망이다.

2024.08.19 17:52김미정

[기고] EU AI법 시행과 AI규제 방향

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 2013년작 영화 '그녀(Her)'에서 인공지능(AI) 서비스 사만다가 등장한다. 사만다는 이용자 맞춤형 소프트웨어(SW)인데 인간과 자연스러운 대화를 할 뿐만 아니라 대량 정보를 처리하면서 스스로 학습하고 인간과 교감을 하는 것처럼 보이는 단계까지 진화하는 모습을 보여준다. 이 영화는 AI 서비스가 등장한다면 어떤 모습일지를 풍부한 상상력으로 구현했다. 그 후 10년도 채 지나지 않아 챗GPT가 등장해 현실에서도 인간과 유사한 지능을 구현한 AI인 범용인공지능(AGI) 서비스가 상용화되는 날이 머지않아 올 것이란 기대를 갖게 됐다. 기술발전이 빠르게 진행되면서 AI기술과 그에 기반한 새로운 서비스를 어떻게 규제 영역으로 포섭하는 것이 좋을지에 대한 논의도 활발하게 진행되고 있다. 유럽연합(EU)은 2018년 일반 개인정보 보호법인 GDPR(General Data Protection Act)를 제정했다. 당시 개인정보 규제에 있어 전세계적인 영향력을 발휘함으로써 소위 브뤼셀 효과(Brussel effect)라는 신조어를 낳았다. 이처럼 AI 규제 분야에서도 선도적인 역할을 하고 있다. 그 결과 올해 8월 1일 AI에 관한 전세계 최초의 포괄적인 규제법인 EU AI법이 발효됐다. EU AI법은 부정적 영향을 줄 위험이 높을수록 더 엄격한 규제가 적용되게 구성됐는데 특정 제품이나 분야에서 AI 기술을 활용할 때 발생할 수 있는 위험 정도에 따라 허용할 수 없는 위험, 고위험, 제한된 위험 및 최소한의 위험으로 구분해 차등적으로 규제하고 있다. EU AI법 전문 제1조는 이 법의 목적으로 '인간 중심적이고 신뢰할 수 있는 AI의 활용을 촉진하고, EU내 AI 시스템의 유해한 영향으로부터 민주주의, 법령 및 환경 보호 등 EU 기본권 헌장에 명시된 건강, 안전 및 기본권을 높은 수준으로 보호'하는 것을 포함하고 있다. AI 시스템은 어디까지나 인간을 돕기 위한 것이어야 함을 전제하고 있고 자연히 인간의 기본적 권리를 침해할 가능성이 있는 AI 기술 활용은 금지된다. 이 법에서 명시하고 있는 금지된 AI 서비스로는 행동을 왜곡하고 정보에 입각한 의사결정을 방해해 심각한 피해를 입히는 잠재의식, 조작 또는 기만적 기술을 배포하는 경우, 직장 및 교육 기관에서 개인의 감정을 추론하는 경우, 인종, 종교적 신념, 성적 지향 등과 같은 보호되는 특성에 따라 개인을 분류하는 생체 인식 분류 시스템으로서의 AI 시스템, 인터넷이나 CCTV 영상에서 얼굴 이미지를 비표적 스크래핑해 얼굴 인식 데이터베이스를 생성하거나 확장하는 경우, 개인의 특성·행동과 관련된 데이터로 개별 점수를 매기는 사회적 점수 매기기 등이 있다. 금지되는 것까지는 아니지만 인간의 안전이나 기본권에 고위험을 가져올 수 있는 AI시스템에 대해서도 EU AI법은 상세히 규정하고 있다. 의료, 교육, 선거, 핵심 인프라 등에 활용되는 AI 기술은 고위험 등급으로 분류돼 시장에 출시되기 전 인간이 AI 사용을 반드시 감독해야 하고 위험관리시스템을 갖춰야 한다. 고위험 AI시스템의 요건을 충족하는지 확인되면 위험평가와 관리 의무가 부가된다. 이러한 고위험 AI 시스템에는 의료 기기, 장난감, 기계류 등 EU 제품 안전 규정에 따라 규제되는 제품 또는 해당 제품의 안전 구성 요소인 AI 시스템, 중요 인프라, 금지되지 않는 생체 인식, 생체 인식 분류 시스템 또는 감정 인식 시스템인 AI 시스템, 고용, 근로자 관리 및 자영업에 대한 접근에 사용되는 AI 시스템, 개인의 신용도를 평가해 신용 점수를 설정하는 AI 시스템 및 생명 및 건강 보험의 경우 개인과 관련된 위험 평가 및 가격 책정에 사용되는 AI 시스템 등이 포함된다. EU AI법의 제반 규정들은 인간 중심적 AI를 개발 및 활용해야 한다는 입법 취지를 명확하게 반영하고 있다. 금지된 AI 서비스와 고위험 AI 시스템에 대한 규제를 보면 AI기술 발전에 따라 초래될 수 있는 인간의 자유와 기본적 권리를 침해하는 데이터 활용을 원천적으로 차단하고자 하는 의지가 느껴진다. 이에 대해서는 EU AI법이 과도한 선제적 규제로 AI기술과 시장이 미처 성숙할 시간을 주지 않고 규제해 AI기술의 발전에 제약이 될 것이며, 위반 시 전세계 매출액의 최대 3퍼센트(금지된 AI를 출시할 경우 전세계 매출액의 7퍼센트)에 해당하는 과징금의 부과에 대해서도 너무 큰 부담을 지우는 것이라는 의견도 존재한다. 새로운 기술의 개발 및 활용에 있어 규제를 공백으로 두기 보다는 어느 정도의 규제는 필요할 것이다. 아직 AI에 대한 구체적인 법령이 발효되지 않았지만 오랜 기간 이에 고민을 해온 우리나라는 포괄적 AI규제의 사실상 첫 스타트를 끊은 EU AI법의 내용뿐만 아니라 해당 법 집행에 따른 결과 등을 면밀히 분석함으로써 국민 기본권을 보호할 뿐만 아니라 국제적인 산업경쟁력을 갖출 수 있도록 하기 위한 AI 법제를 구축할 수 있기를 기대해 본다.

2024.08.06 08:18이강혜

[기고] 알고리즘과 AI의 차이점…규제가 중요한 이유

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 알고리즘과 인공지능(AI)은 현대 기술의 중심에 자리잡고 있다. 이 둘은 종종 혼용되거나 유사한 개념으로 이해되기도 하지만 그 본질과 작동 방식, 응용 분야는 다소 다르다. 알고리즘은 특정 작업을 수행하기 위해 설계된 명확한 단계적 절차나 규칙의 집합이다. 이들은 입력 데이터를 받아 처리하고 결과를 도출하는 과정에서 일련의 지침을 따른다. 예를 들어 정렬 알고리즘은 숫자나 문자의 리스트를 특정 순서로 정렬하는데 사용된다. 알고리즘은 수학적 논리와 명확한 지침을 바탕으로 작동하며 예측 가능하고 재현 가능한 결과를 제공한다. 반면 AI는 기계가 인간의 지능적 행동을 모방할 수 있도록 하는 기술의 집합이다. AI는 머신 러닝, 딥 러닝 등 다양한 기술을 포함하며 이러한 기술들은 데이터를 통해 학습하고 패턴을 인식하며 예측을 수행할 수 있다. AI 시스템은 스스로 데이터를 분석하고 경험을 통해 성능을 향상시키며 복잡한 문제를 해결할 수 있다. 이는 알고리즘과 달리 더 큰 유연성과 자율성을 제공하지만, 그 결과는 항상 예측 가능하거나 명확하지 않을 수 있다. 알고리즘과 AI는 많은 공통점을 가지지만 규제의 필요성이 있어서 중요한 차이점이 존재한다. 알고리즘은 명확한 규칙에 따라 작동하므로 이에 대한 규제가 상대적으로 간단하다. 즉 알고리즘의 코드와 로직을 분석함으로써 그 작동 방식을 이해하고 문제가 발생할 경우 이를 수정할 수 있을 것이다. 하지만 AI는 그 복잡성과 자율성 때문에 규제가 더 어렵다. AI 시스템은 수많은 데이터를 기반으로 학습하고 그 작동 원리는 불투명한 경우가 많다. 이로 인해 AI의 결정에 어떤 편향이나 오류가 발생할 수 있는지 이해하고 검증하기는 매우 어려울 것이다. 이에 따라 AI에 대한 규제는 신중하게 접근해야 한다. AI의 정의가 아직 명확하지 않고 그 응용 분야도 빠르게 변화하고 있기 때문에 성급한 규제는 기술 발전을 저해하거나 의도치 않은 결과를 초래할 수 있다. 예컨대 지나치게 엄격한 규제는 AI 연구 및 개발의 속도를 늦출 수 있다. 이는 글로벌 경쟁력에 부정적인 영향을 미칠 수 있다. 반면 규제가 너무 느슨하면 AI의 오남용이나 윤리적 문제를 방지할 수 없을 것이다. AI 규제의 복잡성은 그 기술적 특성뿐만 아니라 사회적, 윤리적 측면에서도 나타난다. AI는 개인 정보 보호, 데이터 보안, 윤리적 결정 등 다양한 문제를 포함하고 있으며 이는 단순한 기술적 규제로 해결할 수 없는 경우가 많다. 자율 주행 차량 내 AI의 경우 도로 안전과 관련된 복잡한 윤리적 결정을 내릴 수 있어야 한다. 이러한 상황에서 AI의 행동을 규제하는 것은 기술적 문제뿐만 아니라 사회적 합의와 윤리적 기준을 필요로 한다. 이에 AI 규제는 단계적이고 포괄적인 접근이 필요하다. 먼저 AI 시스템의 투명성을 높이는 것이 중요하다. 이는 AI가 어떤 방식으로 작동하는지, 어떤 데이터에 기반해 학습했는지를 명확히 밝히는 것을 의미한다. AI의 결과에 대한 책임도 명확히 해야 한다. 이는 AI 시스템의 오작동이나 잘못된 결정에 대해 누가 책임을 질 것인지를 규명하는 과정이다. 마지막으로 AI의 사회적, 윤리적 영향을 평가하고 이에 대한 기준을 마련해야 한다. 이는 AI가 사회에 미치는 긍정적, 부정적 영향을 균형 있게 고려하는 것을 의미한다. 알고리즘은 이미 규제되고 있으며 이는 그 명확한 정의와 예측 가능한 특성 덕분이다. 반면 AI는 그 정의와 응용이 아직 명확하지 않고, 복잡성과 자율성으로 인해 규제가 더 어려운 상황이다. 이에 따라 AI 규제는 신중하게 접근해야 한다. 또 기술적, 사회적, 윤리적 측면을 모두 고려하는 포괄적인 접근도 필요하다. 이는 AI가 사회에 긍정적인 영향을 미치면서도 그 위험을 최소화할 수 있는 길을 마련할 것이다.

2024.07.19 17:20법무법인 태평양 정상훈

[기고] 인공지능 규제, 어디로 가야 하나

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 2주 마다 다뤄보고자 한다. 미국 콜롬비아 로스쿨의 아누 브래드포드 교수는 그의 저서 '디지털 엠파이어'에서 디지털 시대에 있어 미국의 시장 주도적 규제 모델, 중국의 국가 주도적 규제 모델, 유럽의 시민(권리) 주도적 규제모델이 있다고 소개했다. 또 이 세 가지 규제 모델이 전 세계적으로 경쟁을 하고 있다고 설명했다. 미국의 규제 모델은 성장하는 시장(참여자)이 룰셋팅을 주로 하는 규제 모델을 의미하고, 중국의 규제 모델은 국가가 시장 성장을 주도하면서 그에 따른 룰을 셋팅하는 규제 모델을 의미한다. 마지막으로 유럽의 규제 모델은 시민 권리의 위협에 따라 룰을 우선적으로 셋팅하는 규제 모델을 의미한다. 이러한 규제 모델의 경쟁은 인공지능(AI)에 대한 규제 모델에도 동일하게 작용하고 있는 것으로 보인다. EU는 인공지능에 관한 포괄적인 규율 체계인 소위 EU인공지능법을 가장 먼저 입법화하기 위한 노력을 했고, 이러한 노력은 사실상 마무리 단계에 접어들고 있다. 이와 달리 미국은 인공지능에 관한 규제 체계를 바로 도입하기 보다는 행정명령을 통해 인공지능에 대한 현재 상황을 체크하고, 어떤 규제 체계를 도입할지에 대한 보고서 등을 작성하는 것에 초점을 두고 있다. 이러한 차이는 단순히 인공지능에 대한 규제 도입 단계의 차이만을 의미하는 것이 아니라 인공지능 서비스를 주도하고 있는 미국 기업들의 현 상황까지를 고려한 규제 체계를 도입할 필요가 있는지에 대한 입장 차이도 포함하고 있다. 결과적으로는 인공지능 규제 체계 도입에 대한 근원적인 시각 차이를 반영한 것으로 판단된다. 구체적인 내용을 살펴보면 EU 인공지능법은 잠재적인 위험 및 영향 수준에 따라 인공지능 시스템을 금지된 인공지능 시스템(Prohibited AI systems), 고위험 인공지능 시스템(High-risk AI systems), 최소 위험 인공지능 시스템 (Minimal Risk AI systems), 범용 AI (General purpose AI, GPAI) 모델로 분류하고, 각 분류 체계에 따라 각기 다른 의무를 부과하고 있다. 특히 EU 인공지능법은 이 시스템들 중 고위험 인공지능 시스템에 관해 규제 초점을 맞추고 있다. 이러한 EU 인공지능법은 앞서 설명한 것처럼 시민 권리에 대한 위험도 평가를 기반으로 인공지능에 대한 규제체계를 구성해 매우 촘촘한 규제 체계를 형성하고 있다. 그러나 이에 비해 미국 행정명령은 인공지능에 대한 8가지 정책 원칙을 밝힌 이후 미국 상무부 등 각 행정부처에게 생성형 인공지능을 위한 위험관리 기본체계에 관한 가이드라인 및 모범사례 등을 작성해야 한다. 또 이중 용도 파운데이션 모델의 경우 인공지능 레드티밍시험을 수행할 수 있는 가이드라인 등 작성하도록 요구하고 있다. 여기에 이러한 행정명령에 따라 미국 상무부와 NIST는 생성형 인공지능에 대한 위험관리 기본체계에 대한 초안을 작성해 의견을 수렴하는 등의 절차를 거쳤다. 이 같은 유럽과 미국의 규제 방식의 차이에서 우리는 어떤 선택을 할 것인지 여전히 문제된다. 즉 미국과 같이 현재 시장 상황에 대한 검토를 시작해 시장 상황에 근거한 규제 체계를 도입할지, 아니면 유럽과 같이 인공지능에 관한 예측된 위험으로부터 시민의 권리를 보호하기 위한 규제 체계를 도입할지에 대한 검토가 필요하다. 현재 22대 국회에서 발의된 인공지능 관련 법안들은 두 가지 규제 방식 중 유럽식 규제 체계를 반영하면서 한국의 현실을 고려해 인공지능 서비스 진흥을 위한 정책들을 포함하고 있는 법률안들로 보인다. 그러나 과연 한국에서 고위험 인공지능 시스템에 대한 규제를 지금 도입할 필요가 있는지에 대해선 여전히 의문이 있다. 아직까지 인공지능 서비스가 본격화되지 않은 지금의 시점에 인공지능에 대한 규제 체계를 먼저 도입하는 경우 서비스 활성화에 부정적인 영향을 줄 수 있다는 고민 때문이다. 일례로 2023년 엔비디아 H100 칩 구매량에 대한 통계에서 한국 기업은 10대 구매 기업에 어느 한 곳도 포함돼 있지 않다. 물론 GPU 구매량이 특정 기업의 인공지능 서비스 수준의 척도는 될 수 없겠지만, GPU 구매량은 인공지능 서비스에 대한 투자 정도를 보여주는 지표는 될 수 있다고 생각된다. 아직까지 한국의 기업들이 인공지능 서비스에 대한 투자 또는 서비스 제공 수준이 글로벌 수준에 미치지 못한다는 점을 고려해 한국에서 인공지능에 대한 규제체계 속도를 어떻게 할 것인지에 대한 고민이 필요한 시점이다.

2024.06.21 12:44법무법인 태평양 윤주호

[기고] 신뢰할 수 있는 인공지능과 설명요구권

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 2주 마다 다뤄보고자 한다. 사람의 개입없이 기계에 의해 무언가 결과를 얻어내는 것은 우리의 일상 생활에서 오랫동안 있어온 일이다. 작게는 사거리의 신호등이 점멸할 때 중요하신 분이 지나가는 아주 특별한 경우를 제외하고는 사람이 신호등 안에 숨어서 기기를 작동시키지 않음을 우리는 다 알고 있다. 백화점 멤버십의 등급이 결정될 때도 백화점에서 사용한 카드 사용 금액과 달리 백화점이 고려하는 요소들에 따라서 나의 등급이 정해진다. 해외에서 휴가를 보내기 위해 공항에서 출국 심사를 받을 때도 미리 신원을 등록해 뒀다면 출입국 사무소 직원이 여권을 보는 것이 아니라 컴퓨터가 나의 정맥과 여권만으로 출국 가능 여부를 심사한다. 빅데이터에 대한 분석 기술이 고도화되고 머신러닝 기법과 같은 인공지능(AI) 기술도 이와 함께 발전하면서 인공지능 기술을 도입한 결과물의 이용에 대해선 좀 더 복잡한 문제가 발생하고 있다. 인공지능 기술에서 발생하는 문제점으로 환각(hallucination), 공정성(fairness)이나 편향성(bias) 등이 지적되고 이를 해결하기 위한 많은 연구가 이루어지고 있다. 또 다른 인공지능 기술의 특징 중의 하나는 그 알고리즘을 설명하거나 이해하는 것이 점점 더 어렵게 됐다는 점이다. 인공지능의 알고리즘을 블랙박스(black box)에 비유하는 이유도 인공지능이 내놓은 결론이 왜 그렇게 나왔는지를 설명하기 어려운 경우가 많기 때문이다. 전통적인 인공지능 학습모델로 불리워지는 선형회귀(linear regression)나 의사결정 나무(decision tree)의 경우에도 간단한 모델의 경우에는 결과와 이유의 인과관계를 설명할 수 있다. 하지만 모델이 커지고 복잡해지면서 어떤 요소들이 어떻게 내놓은 답에 영향을 미치게 되는지를 정확하게 설명하기는 어려운 경우가 많다. 무언가 판단이 있었을 때 그 이유를 설명할 수 있어야 한다는 논리는 인공지능 시대에 새롭게 대두된 것은 아니다. 예컨대 우리나라 약관 규제법에서도 사업자가 미리 정해둔 약관을 계약에 포함시키기 위해서는 이 중 중요한 내용에 대해 설명할 것을 요구하고 있다. 또 설명을 충분히 하지 않았으면 그 내용을 계약으로 주장할 수 없다고 정하고 있다. 인공지능과 유사한 복잡한 알고리즘이 오래 전부터 작동해 온 신용평가모델의 경우 미국에선 이미 1970년대부터 대출신청자의 요구에 따라 평가모델에 대해서 설명하도록 규제해 오기도 했다. 개인정보보호법은 인공지능이 개인정보를 처리해 개인에 영향을 미치는 의사결정을 할 경우의 위험성을 인지하고 2023년 법 개정을 통해 자동화된 의사결정에 대한 거부 내지 설명을 요구할 수 있는 권리를 도입했다. 이 규정은 이미 올해 3월 15일부터 시행되고 있다. 이는 개인정보의 처리를 포함해 인공지능에 따라 개인정보를 처리를 포함한 결정이 이루어지고, 이러한 결정으로 인해 나의 권리와 의무에 중대한 영향을 받을 경우에 그 결정을 거부하거나 또는 이와 같은 결정이 내려진 것과 관련한 설명을 요구할 수 있도록 한 것이다. 예컨대 자동화된 시스템에 의해 육아수당의 지급이 취소된 경우 그 지급 취소 결정에 대해 거절하고 인적개입을 요구하거나 또는 왜 취소됐는지 설명을 요구할 수 있다. 공공기관이 국민에게 뭔가 불이익한 처리를 하는 경우에 대해선 자동화된 의사결정이 아니라고 하더라도 일반적으로도 설명을 요구할 수 있었다. 그러나 민간의 경우에는 그러한 설명을 할 의무가 없었기에 이 설명요구권은 새롭게 도입된 제도라 할 수 있다. 공공 부문에서도 이 법의 도입을 통해 개인정보 처리의 관점에서 설명을 해야 하는 사항들이 구체화되었다는 점에서 큰 의미가 있다. 이제는 뭔가 신청자 또는 이용자에게 불이익한 결론이 내려졌다고 하더라도 단지 시스템에 의해서 자동으로 결정됐다거나, 사람의 편향된 판단없이 기계가 공정하게 결정했다는 설명만으로는 부족하게 됐다. 좀 더 구체적으로 법에서 정하고 있는 사항을 설명해야 하는 의무가 사업자에게 발생하게 된 것이다. 우리나라 국민이라면 모두 다 공감하고 있고 공통의 가치를 삼고 있는 민주주의, 국민의 자유와 기본권의 보호, 약자에 대한 배려와 실질적 평등과 같은 핵심의 가치를 인공지능의 설계에서부터 반영해야 한다. 이는 전 세계적으로 강조돼 온 '신뢰할 수 있는 인공지능(trustworthy AI)'의 근간이 된다. 자동화된 의사결정에 대한 설명요구권 역시 인공지능 기술과 산업의 발전을 도모하면서도 동시에 정보주체의 권리에 대해 충분한 보호를 하기 위한 사회적 안전장치다. 새롭게 도입된 제도인 만큼 섬세하면서도 유연한 법 적용을 기대해 본다.

2024.06.07 17:28법무법인 태평양 강태욱

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

LG·벤츠, AI 전장·배터리서 '빅딜' 기대…"폭넓은 협의 나눴다"

BTS·도경수·정우성까지…디즈니플러스, 오리지널 3편 선보인다

최신 밈부터 직원 꿀팁까지…GS25 '더블 100만' 팔로워 성공기

삼성전자, 사업지원실 내 M&A 신설…추가 '빅딜' 속도 내나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.