• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'법무법인 태평양'통합검색 결과 입니다. (23건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[기고] 알고리즘과 AI의 차이점…규제가 중요한 이유

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 알고리즘과 인공지능(AI)은 현대 기술의 중심에 자리잡고 있다. 이 둘은 종종 혼용되거나 유사한 개념으로 이해되기도 하지만 그 본질과 작동 방식, 응용 분야는 다소 다르다. 알고리즘은 특정 작업을 수행하기 위해 설계된 명확한 단계적 절차나 규칙의 집합이다. 이들은 입력 데이터를 받아 처리하고 결과를 도출하는 과정에서 일련의 지침을 따른다. 예를 들어 정렬 알고리즘은 숫자나 문자의 리스트를 특정 순서로 정렬하는데 사용된다. 알고리즘은 수학적 논리와 명확한 지침을 바탕으로 작동하며 예측 가능하고 재현 가능한 결과를 제공한다. 반면 AI는 기계가 인간의 지능적 행동을 모방할 수 있도록 하는 기술의 집합이다. AI는 머신 러닝, 딥 러닝 등 다양한 기술을 포함하며 이러한 기술들은 데이터를 통해 학습하고 패턴을 인식하며 예측을 수행할 수 있다. AI 시스템은 스스로 데이터를 분석하고 경험을 통해 성능을 향상시키며 복잡한 문제를 해결할 수 있다. 이는 알고리즘과 달리 더 큰 유연성과 자율성을 제공하지만, 그 결과는 항상 예측 가능하거나 명확하지 않을 수 있다. 알고리즘과 AI는 많은 공통점을 가지지만 규제의 필요성이 있어서 중요한 차이점이 존재한다. 알고리즘은 명확한 규칙에 따라 작동하므로 이에 대한 규제가 상대적으로 간단하다. 즉 알고리즘의 코드와 로직을 분석함으로써 그 작동 방식을 이해하고 문제가 발생할 경우 이를 수정할 수 있을 것이다. 하지만 AI는 그 복잡성과 자율성 때문에 규제가 더 어렵다. AI 시스템은 수많은 데이터를 기반으로 학습하고 그 작동 원리는 불투명한 경우가 많다. 이로 인해 AI의 결정에 어떤 편향이나 오류가 발생할 수 있는지 이해하고 검증하기는 매우 어려울 것이다. 이에 따라 AI에 대한 규제는 신중하게 접근해야 한다. AI의 정의가 아직 명확하지 않고 그 응용 분야도 빠르게 변화하고 있기 때문에 성급한 규제는 기술 발전을 저해하거나 의도치 않은 결과를 초래할 수 있다. 예컨대 지나치게 엄격한 규제는 AI 연구 및 개발의 속도를 늦출 수 있다. 이는 글로벌 경쟁력에 부정적인 영향을 미칠 수 있다. 반면 규제가 너무 느슨하면 AI의 오남용이나 윤리적 문제를 방지할 수 없을 것이다. AI 규제의 복잡성은 그 기술적 특성뿐만 아니라 사회적, 윤리적 측면에서도 나타난다. AI는 개인 정보 보호, 데이터 보안, 윤리적 결정 등 다양한 문제를 포함하고 있으며 이는 단순한 기술적 규제로 해결할 수 없는 경우가 많다. 자율 주행 차량 내 AI의 경우 도로 안전과 관련된 복잡한 윤리적 결정을 내릴 수 있어야 한다. 이러한 상황에서 AI의 행동을 규제하는 것은 기술적 문제뿐만 아니라 사회적 합의와 윤리적 기준을 필요로 한다. 이에 AI 규제는 단계적이고 포괄적인 접근이 필요하다. 먼저 AI 시스템의 투명성을 높이는 것이 중요하다. 이는 AI가 어떤 방식으로 작동하는지, 어떤 데이터에 기반해 학습했는지를 명확히 밝히는 것을 의미한다. AI의 결과에 대한 책임도 명확히 해야 한다. 이는 AI 시스템의 오작동이나 잘못된 결정에 대해 누가 책임을 질 것인지를 규명하는 과정이다. 마지막으로 AI의 사회적, 윤리적 영향을 평가하고 이에 대한 기준을 마련해야 한다. 이는 AI가 사회에 미치는 긍정적, 부정적 영향을 균형 있게 고려하는 것을 의미한다. 알고리즘은 이미 규제되고 있으며 이는 그 명확한 정의와 예측 가능한 특성 덕분이다. 반면 AI는 그 정의와 응용이 아직 명확하지 않고, 복잡성과 자율성으로 인해 규제가 더 어려운 상황이다. 이에 따라 AI 규제는 신중하게 접근해야 한다. 또 기술적, 사회적, 윤리적 측면을 모두 고려하는 포괄적인 접근도 필요하다. 이는 AI가 사회에 긍정적인 영향을 미치면서도 그 위험을 최소화할 수 있는 길을 마련할 것이다.

2024.07.19 17:20법무법인 태평양 정상훈

[기고] 인공지능 규제, 어디로 가야 하나

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 2주 마다 다뤄보고자 한다. 미국 콜롬비아 로스쿨의 아누 브래드포드 교수는 그의 저서 '디지털 엠파이어'에서 디지털 시대에 있어 미국의 시장 주도적 규제 모델, 중국의 국가 주도적 규제 모델, 유럽의 시민(권리) 주도적 규제모델이 있다고 소개했다. 또 이 세 가지 규제 모델이 전 세계적으로 경쟁을 하고 있다고 설명했다. 미국의 규제 모델은 성장하는 시장(참여자)이 룰셋팅을 주로 하는 규제 모델을 의미하고, 중국의 규제 모델은 국가가 시장 성장을 주도하면서 그에 따른 룰을 셋팅하는 규제 모델을 의미한다. 마지막으로 유럽의 규제 모델은 시민 권리의 위협에 따라 룰을 우선적으로 셋팅하는 규제 모델을 의미한다. 이러한 규제 모델의 경쟁은 인공지능(AI)에 대한 규제 모델에도 동일하게 작용하고 있는 것으로 보인다. EU는 인공지능에 관한 포괄적인 규율 체계인 소위 EU인공지능법을 가장 먼저 입법화하기 위한 노력을 했고, 이러한 노력은 사실상 마무리 단계에 접어들고 있다. 이와 달리 미국은 인공지능에 관한 규제 체계를 바로 도입하기 보다는 행정명령을 통해 인공지능에 대한 현재 상황을 체크하고, 어떤 규제 체계를 도입할지에 대한 보고서 등을 작성하는 것에 초점을 두고 있다. 이러한 차이는 단순히 인공지능에 대한 규제 도입 단계의 차이만을 의미하는 것이 아니라 인공지능 서비스를 주도하고 있는 미국 기업들의 현 상황까지를 고려한 규제 체계를 도입할 필요가 있는지에 대한 입장 차이도 포함하고 있다. 결과적으로는 인공지능 규제 체계 도입에 대한 근원적인 시각 차이를 반영한 것으로 판단된다. 구체적인 내용을 살펴보면 EU 인공지능법은 잠재적인 위험 및 영향 수준에 따라 인공지능 시스템을 금지된 인공지능 시스템(Prohibited AI systems), 고위험 인공지능 시스템(High-risk AI systems), 최소 위험 인공지능 시스템 (Minimal Risk AI systems), 범용 AI (General purpose AI, GPAI) 모델로 분류하고, 각 분류 체계에 따라 각기 다른 의무를 부과하고 있다. 특히 EU 인공지능법은 이 시스템들 중 고위험 인공지능 시스템에 관해 규제 초점을 맞추고 있다. 이러한 EU 인공지능법은 앞서 설명한 것처럼 시민 권리에 대한 위험도 평가를 기반으로 인공지능에 대한 규제체계를 구성해 매우 촘촘한 규제 체계를 형성하고 있다. 그러나 이에 비해 미국 행정명령은 인공지능에 대한 8가지 정책 원칙을 밝힌 이후 미국 상무부 등 각 행정부처에게 생성형 인공지능을 위한 위험관리 기본체계에 관한 가이드라인 및 모범사례 등을 작성해야 한다. 또 이중 용도 파운데이션 모델의 경우 인공지능 레드티밍시험을 수행할 수 있는 가이드라인 등 작성하도록 요구하고 있다. 여기에 이러한 행정명령에 따라 미국 상무부와 NIST는 생성형 인공지능에 대한 위험관리 기본체계에 대한 초안을 작성해 의견을 수렴하는 등의 절차를 거쳤다. 이 같은 유럽과 미국의 규제 방식의 차이에서 우리는 어떤 선택을 할 것인지 여전히 문제된다. 즉 미국과 같이 현재 시장 상황에 대한 검토를 시작해 시장 상황에 근거한 규제 체계를 도입할지, 아니면 유럽과 같이 인공지능에 관한 예측된 위험으로부터 시민의 권리를 보호하기 위한 규제 체계를 도입할지에 대한 검토가 필요하다. 현재 22대 국회에서 발의된 인공지능 관련 법안들은 두 가지 규제 방식 중 유럽식 규제 체계를 반영하면서 한국의 현실을 고려해 인공지능 서비스 진흥을 위한 정책들을 포함하고 있는 법률안들로 보인다. 그러나 과연 한국에서 고위험 인공지능 시스템에 대한 규제를 지금 도입할 필요가 있는지에 대해선 여전히 의문이 있다. 아직까지 인공지능 서비스가 본격화되지 않은 지금의 시점에 인공지능에 대한 규제 체계를 먼저 도입하는 경우 서비스 활성화에 부정적인 영향을 줄 수 있다는 고민 때문이다. 일례로 2023년 엔비디아 H100 칩 구매량에 대한 통계에서 한국 기업은 10대 구매 기업에 어느 한 곳도 포함돼 있지 않다. 물론 GPU 구매량이 특정 기업의 인공지능 서비스 수준의 척도는 될 수 없겠지만, GPU 구매량은 인공지능 서비스에 대한 투자 정도를 보여주는 지표는 될 수 있다고 생각된다. 아직까지 한국의 기업들이 인공지능 서비스에 대한 투자 또는 서비스 제공 수준이 글로벌 수준에 미치지 못한다는 점을 고려해 한국에서 인공지능에 대한 규제체계 속도를 어떻게 할 것인지에 대한 고민이 필요한 시점이다.

2024.06.21 12:44법무법인 태평양 윤주호

[기고] 신뢰할 수 있는 인공지능과 설명요구권

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 2주 마다 다뤄보고자 한다. 사람의 개입없이 기계에 의해 무언가 결과를 얻어내는 것은 우리의 일상 생활에서 오랫동안 있어온 일이다. 작게는 사거리의 신호등이 점멸할 때 중요하신 분이 지나가는 아주 특별한 경우를 제외하고는 사람이 신호등 안에 숨어서 기기를 작동시키지 않음을 우리는 다 알고 있다. 백화점 멤버십의 등급이 결정될 때도 백화점에서 사용한 카드 사용 금액과 달리 백화점이 고려하는 요소들에 따라서 나의 등급이 정해진다. 해외에서 휴가를 보내기 위해 공항에서 출국 심사를 받을 때도 미리 신원을 등록해 뒀다면 출입국 사무소 직원이 여권을 보는 것이 아니라 컴퓨터가 나의 정맥과 여권만으로 출국 가능 여부를 심사한다. 빅데이터에 대한 분석 기술이 고도화되고 머신러닝 기법과 같은 인공지능(AI) 기술도 이와 함께 발전하면서 인공지능 기술을 도입한 결과물의 이용에 대해선 좀 더 복잡한 문제가 발생하고 있다. 인공지능 기술에서 발생하는 문제점으로 환각(hallucination), 공정성(fairness)이나 편향성(bias) 등이 지적되고 이를 해결하기 위한 많은 연구가 이루어지고 있다. 또 다른 인공지능 기술의 특징 중의 하나는 그 알고리즘을 설명하거나 이해하는 것이 점점 더 어렵게 됐다는 점이다. 인공지능의 알고리즘을 블랙박스(black box)에 비유하는 이유도 인공지능이 내놓은 결론이 왜 그렇게 나왔는지를 설명하기 어려운 경우가 많기 때문이다. 전통적인 인공지능 학습모델로 불리워지는 선형회귀(linear regression)나 의사결정 나무(decision tree)의 경우에도 간단한 모델의 경우에는 결과와 이유의 인과관계를 설명할 수 있다. 하지만 모델이 커지고 복잡해지면서 어떤 요소들이 어떻게 내놓은 답에 영향을 미치게 되는지를 정확하게 설명하기는 어려운 경우가 많다. 무언가 판단이 있었을 때 그 이유를 설명할 수 있어야 한다는 논리는 인공지능 시대에 새롭게 대두된 것은 아니다. 예컨대 우리나라 약관 규제법에서도 사업자가 미리 정해둔 약관을 계약에 포함시키기 위해서는 이 중 중요한 내용에 대해 설명할 것을 요구하고 있다. 또 설명을 충분히 하지 않았으면 그 내용을 계약으로 주장할 수 없다고 정하고 있다. 인공지능과 유사한 복잡한 알고리즘이 오래 전부터 작동해 온 신용평가모델의 경우 미국에선 이미 1970년대부터 대출신청자의 요구에 따라 평가모델에 대해서 설명하도록 규제해 오기도 했다. 개인정보보호법은 인공지능이 개인정보를 처리해 개인에 영향을 미치는 의사결정을 할 경우의 위험성을 인지하고 2023년 법 개정을 통해 자동화된 의사결정에 대한 거부 내지 설명을 요구할 수 있는 권리를 도입했다. 이 규정은 이미 올해 3월 15일부터 시행되고 있다. 이는 개인정보의 처리를 포함해 인공지능에 따라 개인정보를 처리를 포함한 결정이 이루어지고, 이러한 결정으로 인해 나의 권리와 의무에 중대한 영향을 받을 경우에 그 결정을 거부하거나 또는 이와 같은 결정이 내려진 것과 관련한 설명을 요구할 수 있도록 한 것이다. 예컨대 자동화된 시스템에 의해 육아수당의 지급이 취소된 경우 그 지급 취소 결정에 대해 거절하고 인적개입을 요구하거나 또는 왜 취소됐는지 설명을 요구할 수 있다. 공공기관이 국민에게 뭔가 불이익한 처리를 하는 경우에 대해선 자동화된 의사결정이 아니라고 하더라도 일반적으로도 설명을 요구할 수 있었다. 그러나 민간의 경우에는 그러한 설명을 할 의무가 없었기에 이 설명요구권은 새롭게 도입된 제도라 할 수 있다. 공공 부문에서도 이 법의 도입을 통해 개인정보 처리의 관점에서 설명을 해야 하는 사항들이 구체화되었다는 점에서 큰 의미가 있다. 이제는 뭔가 신청자 또는 이용자에게 불이익한 결론이 내려졌다고 하더라도 단지 시스템에 의해서 자동으로 결정됐다거나, 사람의 편향된 판단없이 기계가 공정하게 결정했다는 설명만으로는 부족하게 됐다. 좀 더 구체적으로 법에서 정하고 있는 사항을 설명해야 하는 의무가 사업자에게 발생하게 된 것이다. 우리나라 국민이라면 모두 다 공감하고 있고 공통의 가치를 삼고 있는 민주주의, 국민의 자유와 기본권의 보호, 약자에 대한 배려와 실질적 평등과 같은 핵심의 가치를 인공지능의 설계에서부터 반영해야 한다. 이는 전 세계적으로 강조돼 온 '신뢰할 수 있는 인공지능(trustworthy AI)'의 근간이 된다. 자동화된 의사결정에 대한 설명요구권 역시 인공지능 기술과 산업의 발전을 도모하면서도 동시에 정보주체의 권리에 대해 충분한 보호를 하기 위한 사회적 안전장치다. 새롭게 도입된 제도인 만큼 섬세하면서도 유연한 법 적용을 기대해 본다.

2024.06.07 17:28법무법인 태평양 강태욱

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

이재명 대통령 "AI 혁신에만 전념할 환경 만들겠다"

통신사가 직접 'AI 스마트폰' 만들어 판다

JMS 그 이후...넷플릭스, ‘나는 신이다’ 후속 ‘나는 생존자다’ 공개

국내 OTT, 해외서도 끊김 없이 보려면…여름휴가·연휴 안전한 시청법

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.