• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'법무'통합검색 결과 입니다. (74건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[기고] AI 시대의 담합 규제, 알고리즘 담합

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 알고리즘(Algorithm)은 특정 값을 입력하면 정해진 작업 목록에 따라 값을 산출하는 기계·체계적 구조로, 전산 처리의 기본적인 구성 요소로 활용된다. 알고리즘은 주로 머신러닝과 인공지능(AI) 기술을 기반으로 발전하고 있으며 시장의 다양한 분야에서 사용되고 있다. 담합의 '독점규제 및 공정거래에 관한 법률(공정거래법)' 상 정확한 명칭은 '부당한 공동행위'로, 담합이 성립할 수 있는 유형은 공정거래법 제40조 제1항에 따라 매우 다양하다. 담합은 복수의 사업자 간의 '합의(의사의 합치)'를 요건으로 한다. 합의는 계약, 협정, 협약, 결의와 같은 '명시적 합의' 뿐만 아니라 암묵적 양해와 같은 '묵시적 합의'도 포함한다. 이와 함께 지난 2021년부터 시행된 전면 개정 공정거래법에서는 제40조 제1항 제9호에 따라 '정보교환'을 통한 담합 행위를 신설해 금지하고 있다. 이는 사업자 간의 정보교환이 경쟁을 제한하는 수단으로 활용될 수 있다는 우려에서 비롯됐으며 가격, 생산량 등 민감한 정보를 교환함으로써 묵시적 담합이 이루어질 가능성이 높아짐에 따라 이를 명확히 규제하기 위한 목적이다. 알고리즘의 발전은 경쟁법에서 새로운 논점을 제기하고 있으며 그 중에서도 알고리즘 담합은 뜨거운 감자다. 일반적으로 알고리즘의 사용은 시장의 투명성을 높이고 사업자 간 경쟁을 촉진하는 긍정적인 효과를 가져온다. 우리가 흔히 사용하는 가격 비교 서비스가 그 대표적인 예다. 그럼에도 알고리즘이 주요 거래정보를 분석해 사업자 간 예측 가능성을 높이는 경우 묵시적 담합이 이뤄지는 환경을 제공할 수 있다. 전문가들이 알고리즘 담합에 주목하기 시작한 것은 구글, 아마존과 같은 대형 플랫폼과 우버, 에어비앤비와 같은 공유 경제 기업이 비약적으로 성장한 지난 2010년대 중반부터다. 이 중 '마이어 대 우버(Meyer v. Uber Technologies, Inc.)' 소송이 가장 유명한데 이는 개인 원고인 스펜서 마이어가 우버의 가격 책정 알고리즘이 운전자들 간의 가격 담합을 조장한다고 주장하며 제기한 민사 소송이다. 해당 소송은 우버가 제기한 중재 합의 주장이 받아들여져 법원의 본안 판단 없이 중재로 마무리됐지만 새로운 경쟁법적 과제에 대한 중요한 논의를 촉발시키는 계기가 됐다. 이같은 우려 속에서 각국 경쟁 당국은 알고리즘 담합에 대응하기 위해 적극적인 조사 및 규제 움직임을 보이고 있다. 최근 미국에서는 개인 원고들이 애틀랜틱 시티와 라스베이거스의 호텔들을 대상으로 호텔들이 센딘(Cendyn)의 '레인메이커(Rainmaker)' 소프트웨어를 통해 실시간 가격과 점유율 데이터를 공유하며 가격을 담합했다고 주장하며 소송을 제기했다. 이에 미국 법무부와 연방거래위원회는 해당 소송에서 의견서를 제출하면서 경쟁사들이 공통의 알고리즘을 사용해 가격을 설정하는 행위가 명시적 합의 없이도 담합으로 간주될 수 있다고 평가했다. 또 알고리즘을 통한 가격 설정이 경쟁 제한적 효과를 가져올 수 있고 이러한 행위가 반독점법 위반에 해당할 수 있다는 점을 강조했다. 그럼에도 두 소송 모두 원고가 가격 담합을 입증할 충분한 증거를 제시하지 못했다는 이유로 기각됐다. 법원은 해당 알고리즘을 통해 경쟁사들의 기밀 내지는 비공개 정보가 교환되지 않았고 알고리즘은 단지 가격을 추천 내지 권장할 뿐이지 각 호텔들이 알고리즘의 가격 추천에 구속되지 않았다는 점을 주요 판단 근거로 삼았다. 이에 비추어 볼 때 알고리즘을 통해 사업자간 기밀 정보가 교환될 경우 담합이 성립할 가능성이 높으며 알고리즘의 가격 추천에 대한 구속력이 없다고 보여질 경우 담합으로 인정되기 어려울 것으로 생각된다. 국내 법원도 묵시적 담합의 인정과 관련해 신중한 태도를 보여왔으며 정보교환만으로는 합의가 추정되지 않고 사업자간 묵시적 합의를 인정할 정도의 의사연결의 상호성이 존재해야 한다는 입장을 취해 왔다. 그런데 알고리즘 담합은 알고리즘이 자동적으로 정보를 저장하고 거래에 반영하는 구조이기 때문에 단순한 정보교환을 넘어서 묵시적 합의를 구성하기 어려운 장애물이 다수 존재한다. 이 같은 상황에서 공정거래법은 정보교환을 부당한 공동행위의 유형으로 포함시켰다. 이에 따라 알고리즘과 관련해 사업자 간 담합으로 볼 수 있는 외형상 일치와 정보교환이 존재할 경우 이를 담합으로 규제할 수 있는 근거 규정을 보완했다. 알고리즘이 경쟁 제한 효과를 초래할 가능성이 높아짐에 따라 알고리즘 담합에 대한 규제는 향후 디지털 경제에서 공정성과 혁신을 조화롭게 유지하기 위한 필수적인 과제가 될 것으로 예상된다. 기술의 발전과 법적 규제 간의 괴리를 줄이기 위해서는 알고리즘 담합과 관련한 보다 세분화된 판단 기준과 지침이 필요할 것으로 생각된다. 이전까지는 각국 경쟁 당국의 조사 추이 및 최종 판단을 유의 깊게 지켜봐야 할 것이다.

2024.11.22 11:11법무법인(유한)태평양 변채영

[기고] 생성형 AI 규제는 시장의 경쟁을 촉진하는가

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)이라는 새로운 기술이 우리의 삶과 산업에 미치는 영향은 무궁무진하다. 이에 따라 기술 혁신을 지속함과 동시에 시장과 소비자에게 미치는 부정적 영향을 최소화하는 것이 각국 정부와 기업에게 필수적인 과제가 됐다. 유럽연합(EU)의 인공지능법(EU AI Act)으로 대표되는 AI 규율에 관한 논의는 지금까지 비경제적·비경쟁적인 요소에 국한돼 있었는데 최근 전세계 주요 경쟁당국들이 AI 시장에 대해 분석을 시작하거나 보고서를 발간하는 등 경쟁법적 규제의 움직임을 보이고 있다. 유럽연합 집행위원회(EC), 미국 연방거래위원회(FTC), 영국 경쟁시장청(CMA), 프랑스 경쟁청(Autorite de la concurrence) 등은 다양한 형태의 조사를 함으로써 생성형 AI 시장에서의 독점화 가능성에 대해 주시하고 있다. 우리 공정위거래위원회도 지난 8월부터 AI 분야의 국내 및 해외 주요 사업자를 대상으로 'AI 시장 실태조사'에 착수했고 이 실태조사 결과를 바탕으로 올해 말 'AI 정책보고서'를 발간할 계획이다. 이들은 생성형 AI의 핵심적인 경쟁 요소인 데이터, 전문 연구 인력, 컴퓨터 리소스를 이미 보유하고 있는 거대 기업들에 대해 걱정한다. 경쟁 사업자들이 이 자원에 대해 접근·이용하지 못하도록 거절 또는 제한함으로써 시장진입과 경쟁을 막고 인접시장으로의 지배력을 전이하거나 확장할 것이라는 우려다. 또 서비스 간 경쟁의 경계가 흐려지고 그 범위가 확대되는 과정에서 기존의 플랫폼 시장에서의 독점 사업자가 경쟁자를 배제하기 위해 행한 일련의 경쟁 제한행위가 생성형 AI 시장에서도 그대로 발생할 가능성이 있음을 걱정한다. 처음에는 오픈소스를 배포해 거래를 개시하고 꾸준한 데이터 수집을 통해 일정한 규모를 달성한 후에는 폐쇄형으로 전환하는 등의 방법으로 경쟁을 제한하는 폐해를 가져올 수도 있음도 지적하고 있다. 그럼에도 불구하고 생성형 AI 시장은 초기 발전 단계로, 기존의 가정에 의존하거나 기술의 미래를 예측해 사전에 규제하려는 시도가 오히려 예기치 않은 부작용을 초래할 위험도 있음을 주의해야 한다. 생성형 AI 관련 당사자와 서비스의 광범위성·복잡성, 그 기술과 서비스 구조의 변동성·불확실성·예측 불가능성 등의 특성을 고려하면 새로운 AI 기술에 대한 선제적 개입은 혁신의 동력을 약화시키고 자본과 인재의 유입을 저해할 가능성이 크다. 이러한 문제는 비단 경쟁당국과 경쟁법 영역에서만 발생하는 것이 아니다. AI에 관한 기본법으로 대표되는 EU AI법은 AI의 안전과 윤리를 보장하는 중요한 규제지만 중소기업이나 스타트업의 경쟁 환경을 악화시킬 수 있는 몇 가지 부정적 측면을 가지고 있다. 첫째로 EU AI법은 생성형 AI 시스템 공급자에게 다양한 의무를 부과하는데 이러한 의무를 이행하는 데는 상당한 비용이 발생한다. 예를 들어 텍스트 생성에 특화된 생성형 AI 모델을 개발하는 중소업체는 EU AI법에 따라 모델 훈련에 사용된 방대한 데이터셋의 출처를 명확히 하고 저작권 침해 여부를 검토해야 한다. 또 모델의 성능과 안전성을 입증하는 기술 문서를 작성하고 지속적으로 업데이트도 해야 한다. 이러한 의무를 준수하기 위해서는 전문 인력, 데이터 관리 시스템, 법률 자문 등이 필요한데 이는 자원이 부족한 중소기업이나 스타트업에게는 큰 부담이 될 수 있다. 결과적으로 규제 준수를 위한 자원을 충분히 확보하고 있는 거대 기업과 달리 중소기업이나 스타트업은 규제 준수 비용으로 인해 시장 진입 및 경쟁에 어려움을 겪을 수 있다. 둘째로 EU AI법은 오픈소스 모델에 대해 일부 의무를 면제하지만 그 기준과 범위가 모호하다. 일례로 '시스템적 위험'에 대한 명확한 정의가 부족하고 어떤 모델이 면제 대상에 해당하는지 판단하기가 어렵다. 이러한 불확실성은 기업들의 예측 가능성을 떨어뜨리고 혁신을 저해할 수 있다. 만약 오픈소스 기반 이미지 생성 AI 모델을 개발하는 스타트업이 '시스템적 위험'에 대한 해석이 모호해 규제 적용 여부를 확신할 수 없다면 규제 불확실성으로 인해 투자 유치에 어려움을 겪고 모델 개발 및 출시를 지연시킬 수밖에 없을 것이다. 셋째로 EU AI법은 고위험 AI 시스템에 대한 엄격한 규제를 통해 안전과 윤리를 보장하고자 하나 동시에 혁신을 저해하고 다양성을 감소시킬 우려가 있다. 특히 모호한 AI 시스템의 위험 등급 분류 기준과 복잡한 규제 준수 절차가 새로운 기술 개발 및 시장 진입을 위축시킬 수 있다. 일례로 의료 진단 분야에 활용될 수 있는 새로운 AI 모델을 개발하는 연구기관이 있다면 이 기관은 EU AI법에 따라 해당 모델을 고위험 AI 시스템으로 분류해야 할지 판단하기 어려워 규제 준수에 어려움을 겪을 수 있다. 법률 해석의 모호성 및 집행의 불확실성은 기업들이 규제 적용 범위를 예측하기 어렵게 만든다. 결과적으로 EU AI법은 의도와 달리 AI 생태계의 역동성을 저해하고 다양한 AI 솔루션 개발을 제한해 소비자 선택권을 축소시키는 결과를 초래할 수 있다. 규제 당국은 중소기업 및 스타트업의 규제 준수 부담을 완화하고 법적용 여부의 불확실성을 해소하며 거대 기업의 지배력 전이 가능성을 차단하는 데 집중해야 할 것이다. 이같이 시장에서의 경쟁 여부 및 그 정도가 온전히 경쟁법의 영역에서만 좌우되는 것은 아니다. 생성형 AI 시장에 대한 규제나 경쟁법 집행을 논의함에 있어서는 시장의 실제 경쟁 구조와 성장 단계에 대한 세밀한 분석이 선행돼야 한다. 기존의 가정에만 의존하지 않고 데이터 기반의 심도 있는 연구를 바탕으로 한 규제 방안이 필요하며 이는 공정한 경쟁과 지속 가능한 혁신을 위한 기반이 될 것이다.

2024.11.11 11:02법무법인 태평양 강정희

법무법인 세종, 'IT&SW 전문팀' 발족

법무법인 세종이 국내 로펌 최초로 'IT&SW 전문팀'을 발족하고, 이를 기념하는 첫 IT 분쟁 세미나를 지난 31일 열었다고 밝혔다. IT, SW 산업이 급격하게 확장되며 대규모 공공 민간 SW 개발 사업에서 발생하는 분쟁이 증가하는 가운데 세종은 선제적으로 'IT&SW 전문팀'을 발족해 관련 법률 자문rhk 분쟁 해결에 대응한다는 방침이다. 특히 이 분야의 분쟁은 과업 범위의 증가 및 변경, 개발 과정에서의 지연과 완성도 등에 대한 책임 소재, 계약 해지 기성고 정산 문제 등 특유한 쟁점들을 다수 내포하고 있어 SW 개발 및 IT 시스템 구축에 관한 폭넓은 이해 및 유사 사건 수행 경험을 통해 축적한 전문성이 매우 중요하다. 이에 따라, 세종 IT&SW 전문팀에는 서울대 전자공학과를 졸업하고 특허법원 판사 및 서울고등법원 지적재산권 전문재판부 고법판사를 역임한 윤주탁 변호사(사법연수원 33기)와 김윤희 변호사(연수원 32기), 권이선 변호사(연수원 38기), 주석호 변호사(변시 3회), 최광희 고문(前 KISA 사이버침해대응본부장), 이주환 고문(前 하나은행 정보보호최고책임자) 등 베테랑 전문가로 구성했다. 이번 세미나에서는 IT 및 SW 개발 사업 발주 및 관리에 필요한 법적 지식과 전략을 제공하기 위해 대법원과 하급심의 주요 판례들을 분석해 각 분쟁에서 다투어지는 여러 쟁점들을 다뤘다. 첫번째 세션은 세종의 특허팀을 이끌고 있는 윤주탁 변호사가 'IT, SI 및 SW 개발 관련 분쟁의 쟁점 및 시사점'을 주제로 IT, SW 개발 분쟁의 어려움과 분쟁의 어려움을 극복하기 위한 소송대리인의 역할과 필요한 능력을 제시했다. 두번째 세션의 발표를 맡은 권이선 변호사는 SW 라이선스 분쟁 사례에 대한 설명을 기초로 이에 대한 대응에서 유의할 점을 설명했다. 또 윤주탁 변호사와 주석호 변호사는 특허 저작권 분쟁과 부정경쟁행위 분쟁에 대한 논의를 이어갔다. 오종한 대표변호사는 “이번 IT&SW 전문팀 발족을 통해 IT, SI 및 SW 기업들과 SW 개발 사업 발주 기업들의 잠재적인 법률 분쟁 리스크를 효과적으로 관리하고, 현실화된 리스크에 대한 대응방안을 제공함으로써 기업들이 사업의 초기 단계부터 법적 안정성을 확보할 수 있도록 하겠다”라고 말했다.

2024.11.04 09:50박수형

[기고] EU 플랫폼 노동 지침과 자동화된 의사결정

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)의 발전은 자율주행차, 로봇, 신약 개발 등 거의 모든 분야에서 혁신을 이끌며 우리의 삶을 더욱 편리하고 효율적으로 바꾸고 있다. 그럼에도 불구하고 이러한 편리함과 효율성이라는 눈부신 성과 뒤에는 인간의 자유, 권리, 존엄성에 대한 새로운 도전과 잠재적 위협이 숨어 있다. 대규모 데이터를 학습한 AI 시스템은 인간의 개입 없이도 자동으로 의사결정을 내릴 수 있다. 이러한 자동화된 의사결정(ADM, Automated Decision-Making)은 확장성 등의 측면에서 인간이 내리는 결정보다 파급력이 클 수 있다. 이에 따라 AI시스템에 의한 자동화된 결정을 도입하기에 앞서 개인의 자유와 권리에 대한 영향뿐만 아니라 사회의 공정성과 책임성에 대한 검토가 필요하다. AI와 자동화된 의사결정이 어떻게 인간의 권리를 위협할 수 있는지에 대해선 현재 활발한 논의가 진행 중이다. 디지털 경제의 급격한 발전으로 인해 다양한 플랫폼이 등장했고 수많은 근로자들이 디지털 플랫폼에서 일하게 됐다. 유럽연합(EU)에서 이러한 근로자들은 종종 '자영업자'나 '독립 계약자'로 분류되는 경우가 있다. 그럼에도 이러한 근로자들은 실질적으로 그들의 고용주로 볼 수 있는 플랫폼의 알고리즘에 의해 관리되고 통제되는 경우가 많다. 이러한 관리와 통제의 과정에서 근로자는 일방적으로 자동화된 의사결정에 따라 업무가 배정되거나 평가받으며 그 결과로 근로자로서의 권리와 보호에서 소외되는 경우가 발생하기도 한다. EU는 이같은 플랫폼 근로자의 근로자성에 대한 문제를 해결하기 위한 논의를 진행했다. 또 플랫폼 근로자를 보호하고 권리를 강화하는 법적 틀을 마련하고자 했다. 이에 따른 성과로 지난 3월 11일 'EU 플랫폼노동 입법지침(EU Platform Work Directive)' 최종 타협안을 승인하기에 이르렀다. 이에 따라 EU 회원국은 2년 내 지침에 따른 관련법을 제정해야 한다. 'EU 플랫폼노동 입법지침'은 플랫폼 근로자의 법적 지위를 명확히 하고 그들이 적절한 사회보장을 받을 수 있도록 하는 데 중점을 둔다. AI 기반 알고리즘은 플랫폼 근로자에게 자동으로 업무를 배정하고 성과를 평가하며 이에 따른 보상을 결정하지만 학습된 데이터가 편향돼 있을 경우 이러한 데이터에 기반한 의사결정도 편향될 수 있다. 또 알고리즘이 어떻게 작동하는지와 어떤 기준으로 의사결정을 내리는지에 대한 정보가 노동자에게 충분히 제공되지 않는 경우가 많다. 알고리즘은 자동으로 결정을 내리지만 그 결정이 잘못되었을 때 누구에게 책임을 물을 것인지는 명확하지 않다. 플랫폼은 알고리즘의 오류나 편향성에 대해 책임을 회피할 수 있으며 노동자는 이로 인해 발생한 불이익에 대해 보호받지 못할 수 있다. AI와 자동화된 의사결정이 근로자의 권리에 미치는 영향을 줄이기 위해서는 인간의 개입과 책임성이 어느 정도 보장돼야 할 것으로 생각된다. AI나 자동화된 결정에 대해 근로자는 언제든지 인간의 개입을 요구할 수 있어야 한다. 또 잘못된 결정이 내려졌을 경우 이에 대한 명확한 책임 소재가 규정돼야 한다. AI와 자동화된 의사결정 시스템이 노동 시장에서 효율성과 편리성을 높이는 데 큰 역할을 하고 있음에도 근로자 권리를 침해할 위험도 커지고 있다. EU 플랫폼 노동 지침은 이러한 위험을 줄이기 위해 알고리즘 투명성, 인간의 개입, 공정성 확보 등 여러 가지 규제를 도입하고 있다. 앞으로도 기술 발전에 따른 새로운 윤리·법적 문제에 대한 지속적인 논의와 규제가 필요하다. 이를 통해 AI가 사회에 긍정적인 변화를 일으키는 동시에 인간의 존엄성과 권리를 지킬 수 있도록 해야 할 것이다.

2024.10.25 17:23법무법인(유한) 태평양 이강혜

'어린이 정신 건강 해친다'...美 법무부 장관들, 틱톡 고소

14명의 미국 법무장관들이 틱톡을 상대로 소송을 제기했다. 8일(현지시간) 테크크런치에 따르면 14명의 미국 법무장관들이 틱톡을 상대로 소송을 제기했다. 틱톡이 미성년자의 정신 건강에 부정적인 영향을 미치고, 동의 없이 데이터를 수집한다는 이유에서다. 최근 중국 대기업 바이트댄스가 소유한 미국 기업 틱톡은 운영을 위협할 수 있는 여러 소송에 휘말려 있다. 또 다른 소송에서 FTC와 법무부는 부모의 동의 없이 13세 미만 사용자의 데이터를 수집하여 아동 온라인 개인정보 보호법(COPPA)을 위반했다는 이유로 플랫폼을 고소했다. 한편 바이트댄스가 2025년 1월 19일 이전에 틱톡을 매각하지 않으면 미국에서 틱톡은 금지될 예정이다.

2024.10.09 09:25최지연

"개인정보 국외이전 기준 마련"…태평양 이강혜 변호사, 개보위원장 표창 수상

이강혜 법무법인 태평양 변호사가 개인정보 보호에 기여한 공로를 인정받았다. 법무법인 태평양은 개인정보보호위원회(개보위)가 지난달 30일 서울 강남 코엑스에서 개최한 제4회 개인정보 보호의 날 기념식에서 이 변호사가 개인정보보호유공 '발전·협력 분야' 부문 개보위원장 표창을 수상했다고 8일 밝혔다. 이 변호사는 개인정보의 국외이전과 관련해 '이전 대상국 등의 개인정보 보호 수준이 개인정보 보호법에 따른 보호 수준과 실질적으로 동등한 수준을 갖추고 있는지에 대한 인정 기준을 마련하는 연구'에 기여한 공로를 인정받았다. 개인정보 및 정보보호 분야 전문가로 활동해온 이 변호사는 개인정보 보호와 안전한 활용이 실현될 수 있는 환경 조성에 기여해왔다. 국내외 기업뿐 아니라 개보위와 한국인터넷진흥원 등 유관기관에도 자문을 제공한 바 있다. 사내변호사로 지난 8년간 근무하며 쌓은 경험과 기업 실무 전반에 대해 깊은 이해를 바탕으로 실질적 솔루션을 제공하는 전문가로 평가받는다. 태평양 이강혜 변호사는 "앞으로도 개인정보 분야의 발전에 기여할 수 있도록 노력하겠다"고 말했다.

2024.10.08 11:36조이환

[기고] 브뤼셀 효과 이면 속 건강한 국내 디지털 시장 발전 위해 고려할 사항은?

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 세계가 급격하게 디지털화되면서 혁신, 번영, 개인의 권리를 균형있게 보호할 수 있는 올바른 거버넌스 체계에 대한 논의도 급물살을 타고 있다. 유럽은 디지털 기술 및 정보보호 분야에서 입법의 선도자로 자리매김해 왔다. 유럽연합(EU)의 개인정보보호규정(GDPR)은 세계적인 표준으로 간주되고 있으며 다른 지역에도 영향을 미쳐 왔다. 이는 소위 말하는 '브뤼셀 효과'다. 일반 데이터 보호 규정(GDPR) 제정 이후 EU는 디지털 전략의 일환으로 관련 법령들을 발전시켜 왔다. 그럼에도 유럽 연합의 방대한 디지털 법안 패키지가 부정적인 영향을 미친다는 비판적인 목소리도 있다. 마리오 드라기 이탈리아 전 총리는 최근 EU 집행위원회 '유럽 경쟁력의 미래(The future of European competitiveness)' 보고서에서 "유럽에서 성장하려는 혁신적인 기업들이 일관성 없고 제한적인 규제로 인해 매 단계마다 방해를 받고 있다"고 지적했다. 드라기 전 총리의 말과 같이 '브뤼셀 효과'는 영감의 원천이 될 수 있지만 동시에 주의 깊게 검토해야 할 경고로도 작용할 수 있다. 지난 해 국내에서도 개인정보보호법 시행령을 개정했다. 이는 표면적으로는 개인정보 보호법을 GDPR의 일부분과 더 유사하게 조정하려는 것처럼 보인다. 이번 개정 중 가장 중요한 부분은 국내에서 표준으로 자리 잡아 온 '필수 동의' 사용의 변화다. 새로운 접근 방식에 따르면 개인정보 처리를 위한 동의를 받는 기업은 더 이상 사용자에게 서비스 이용을 위해서는 동의를 해야 한다고 강제하지 못한다. 대표적인 예시로 더이상 필수동의 체크박스는 사용할 수 없게 되는 것이다. 대신 이제는 동의가 개인의 '자유로운 의사'에 따라 이루어지도록 해야 한다. 개인정보 처리가 선택 사항이어야 하며 사용자가 동의를 거부하더라도 여전히 서비스에 접근할 수 있도록 허용돼야 한다. 이는 국내 여러 산업에 광범위한 영향을 미칠 수 있는 중대한 변화다. 이에 따라 GDPR의 동의 개념에서 영감을 받은 이러한 새로운 접근 방식이 미칠 잠재적인 영향을 분석하고자 한다. 지나치게 복잡한 디지털 규제 환경으로 인해 EU에서는 중복된 디지털 법령들의 서로 다른 요구사항들을 어떻게 적용할지에 대한 법적 불확실성이 초래되고 있다. 규제 당국의 보수적이고 제한적인 해석과 맞물려 이러한 상황은 유럽의 글로벌 경쟁력과 혁신에 위축 효과를 가져오고 있다. 앞서 언급한 드라기 전 총리의 보고서는 EU 법령의 빈번한 변경으로 인해 법령이 누적되고 있다고 지적한다. 또 중소기업에 과도하게 높은 준수 비용이 부과돼 결과적으로 소비자들이 서비스 비용을 더 부담하게 될 수 있음을 구체적으로 언급한다. 메릴랜드 대학교의 연구 역시 GDPR로 인해 유럽의 벤처 캐피탈 투자가 미국에 비해 감소했음을 확인해준다. 개인정보보호위원회는 지난 20년간 시행돼 온 필수 동의 제도의 변경에 대한 지침을 올해 말까지 발표할 것이라고 밝힌 바 있다. 동의에 대한 추가 지침을 마련할 때는 조직 사업 운영의 자유, 소비자 정보 접근권, 디지털 경제 성장의 혁신에 미치는 영향 등 중요한 사회적 권리들과 프라이버시권 간의 합리적 균형을 보장해야 한다. 입법자와 규제 당국은 기업에 미치는 실질적인 영향과 디지털 서비스의 사용자 경험을 고려해야 한다. 광고 기반 수익으로 제공되는 서비스들이 유료로 전환될 가능성이 크고 중소기업들은 더 높은 비용 부담을 겪게 될 확률이 높다. GDPR의 '자유로운 의사에 따른 동의 요건 해석 방식'을 따르게 된다면 국내 기업들이 고객의 데이터를 처리하는 방식에도 중요한 변화가 발생할 것이다. '필수 동의' 제거에 따라 거의 모든 국내 온라인 사업체가 막대한 비용을 들여 온라인 서비스를 재구성해야 할 것이기 때문이다. 광고 기반 수익에 의존하는 디지털 기업들은 가능한 경우 대체 수익원을 찾아야 할 것이다. 이러한 변화는 소비자에게도 영향을 미칠 것이다. 현재 광고 기반 모델을 사용하는 다양한 기업들은 규모와 관계 없이 소비자에게 무료 서비스를 제공하고 있다. 이는 기업들이 사용자로부터 직접 수집한 개인정보를 활용해 적합하고 흥미로운 맞춤형 광고를 제공할 때만 가능하다. 본질적으로 광고주로부터의 수익이 무료 서비스를 지원하는 재원이 되기 때문이다. 기존 관행에 변화가 생기면 디지털 생태계에 상당한 영향을 미칠 수밖에 없다. 이미 EU 내 일부 사례에서 관찰됐듯이 뉴스 웹사이트, 게임 앱, 소셜 미디어가 제공 서비스를 변경할 경우 국내 소비자에게 비용을 초래할 수 있다. 이 쟁점에 있어서는 규제 당국·기업·정책 입안자·학계 간의 진지하고 건설적인 대화가 특히 중요하다. 현재 제안된 변경사항은 프라이버시의 법률 구조뿐만 아니라 중소기업·대기업 전반의 일상적 비즈니스와 사업 운영의 자유에까지 광범위한 영향을 미칠 것이다. 또 이러한 변화가 개인의 프라이버시 보호에 실제로 더 나은 결과를 가져올지도 명확하지 않다. 기업들이 광고 기반 수익 모델에 의존할 수 있는 능력을 줄인다고 해서 이들이 개인정보를 더 잘 처리하거나 개인정보의 보안을 강화하게 되는 것은 아니기 때문이다. 이는 오히려 기업과 소비자 모두에게 더 많은 어려움을 초래할 수 있다. 이보다는 투명성과 통제를 통해 개인, 경제, 혁신에 과도한 부담을 주지 않으면서도 프라이버시 보호를 달성할 수 있을 것이다. 기업들이 데이터 처리 방식과 시스템을 규제에 맞게 조정하기 위해서는 규제 당국의 실질적인 지침과 합리적인 타임 라인이 필수적이다. 이에 따라 데이터 처리의 다양한 법적 근거에 대한 명확한 기준을 제시하고 여러 사례를 신중하고 포괄적으로 검토하며 문제되는 다양한 기본권 간의 균형을 고려해야 할 것이다. 대한민국은 중대한 기로에 서 있다. 이번에 제안된 변화는 법적 불확실성을 초래했다. 향후 제시될 지침은 국내 소비자들의 프라이버시를 보호하고 이들이 혁신적인 디지털 제품 및 서비스에 공정하게 접근할 수 있도록 해야 할 것이다. 동시에 기업들이 국내 경제를 지속적으로 성장시키게 해석·시행되도록 보장해야 할 것이다. 이 원고는 유럽 소재 개인정보 보호 분야 저명한 씽크탱크인 Centre for Information Policy Leadership (CIPL)과의 공동 연구를 통해 작성됐다.

2024.09.27 10:50법무법인 태평양 류광현

美 법무부, AI 사용 규제 강화…윤리적 기준 재정립

인공지능(AI)의 영향력이 커지면서 미국 법무부도 이를 견제하기 위해 나섰다. AI의 윤리적 사용 여부 평가 기준을 강화해 형법을 위반하지 않는지 확인하겠다는 방침이다. 26일 월스트리트저널(WSJ) 등 외신에 따르면 미국 법무부는 지난 23일 '기업 컴플라이언스 프로그램 평가'에 AI를 추가하는 등 변경 사항을 발표했다. 기업 컴플라이언스 프로그램 평가는 미국 검찰이 뇌물, 사기 등 형사 범죄를 수사할 때 특정 회사의 규정 준수 프로그램을 평가하는 데 사용하는 수사 지침과 관련된 내용이다. 규정 준수 프로그램이란 기업이 사업을 진행하면서 규칙, 규정 및 윤리적 표준을 준수하기 위해 마련한 기준과 태도를 의미한다. 새 지침은 기업이 내부 데이터를 사용해 AI를 활용할 때 사내 규정 준수 프로그램을 어떻게 지킬 것인지에 대한 변경 사항을 담고 있다. 앞으로 미국 기업은 AI를 사용한 사업에서 윤리적 측면을 더욱 고려해 내부 프로젝트를 진행해야 한다. 또 검찰은 데이터 및 기술 사용, 비즈니스의 다른 영역에서 탈세 등 의심스러운 점이 있으면 해당 기업을 조사할 수 있다. 검찰은 지침 변경에 따라 기업이 AI 등 기술을 활용하는 데 형법을 위반하지 않는지 평가하고 상업적 비즈니스 및 규정 준수 프로그램에서 AI 거버넌스 접근 방식에 대해 질문할 수 있게 됐다. 외신들은 법무부가 규정을 준수하지 못하는 기업들로부터 교훈을 얻고, 필요에 따라 규정 준수 프로그램을 조정하려는 의도로 이번 방침을 확대했다고 보도했다. 게리 잭 기업 컴플라이언스 및 윤리 협회장은 “내부 감사나 다른 부서에서 데이터 분석 능력이 뛰어난데도 불구하고, 컴플라이언스 부서에서 아무 조치도 하지 않는다면 외부에서 보기에 좋지 않을 것”이라고 말했다.

2024.09.26 10:34양정민

법무법인 린, 플랫폼·공정거래팀 출범

법무법인 린(대표변호사 임진석)이 '플랫폼·공정거래팀'을 출범시켰다고 25일 밝혔다. 린의 테크그룹 리더를 맡고 있는 구태언 변호사(사법연수원 24기)를 포함한 정예 전문가들로 구성된 플랫폼·공정거래팀은 급변하는 플랫폼 비즈니스 환경과 복잡해지는 규제 지형에 대한 린의 전략적 대응을 상징한다. 린의 플랫폼·공정거래팀은 공정거래팀장인 김종식 변호사(사법연수원 37기)와 플랫폼·이커머스 부문팀장 길지영 변호사(사법연수원 40기)의 공동팀장 체제로 운영된다. 최근 공정거래위원회가 온라인플랫폼 규제법을 새로이 제정하는 대신 기존 공정거래법을 개정하는 방식으로 독과점 플랫폼을 규제하겠다고 밝혔는데, 플랫폼 산업에는 공정거래 이슈 뿐만 아니라 개인정보보호, 소비자보호 등 다양한 규제가 중첩되는 상황이므로 기술적 지원 및 통합적 시각의 법률 자문이 필수적이라는 린의 선제 검토에 따라 팀을 구성했다. 린의 플랫폼·공정거래팀 공동팀장인 김종식 변호사는 15년 이상의 공정거래 분야 경험을 보유한 전문가다. 김 변호사는 김앤장 법률사무소 재직 때부터 기업담합, 기업결합신고, 불공정거래행위 등 다양한 공정거래 이슈를 다뤄왔으며, 최근에는 플랫폼 비즈니스 모델에 대한 법적 자문을 제공해왔다. 현재 법무법인 린의 공정거래팀장을 맡고 있으며, 공정거래위원회의 소송대리인으로도 활동 중이다. 김종식 변호사는 "EU의 디지털시장법(DMA)이나 국내에서 논의되고 있는 공정거래법 개정 논의 등 새로운 규제 환경에 대한 선제적 대응이 기업들의 주요 과제로 떠오르고 있습니다. 우리의 새로운 플랫폼·공정거래팀은 이러한 규제 동향을 면밀히 분석하고, 기업들이 효과적으로 대응할 수 있는 전략을 수립하는 데 주력할 것" 이라고 강조했다. 또한 공동팀장인 길지영 변호사는 플랫폼 비즈니스와 기업법무 분야의 전문가다. 다수의 플랫폼 기업 약관 검토와 분쟁 자문을 포함하여 풍부한 플랫폼 기업 자문 경험을 보유하고 있으며, 상장지주회사 사내변호사로 재직 시 그룹 전반의 공정거래 이슈와 자회사들의 온라인플랫폼 관련 업무를 담당한 바 있다. 현재 법무법인 린에서 플랫폼·이커머스 부문팀장을 맡고 있으며, 플랫폼 기업의 M&A, 공정거래 규제 대응 및 기업법무 전반 등 플랫폼 기업에 관한 종합적인 법률서비스를 제공하고 있다. 길지영 변호사는 "현재 플랫폼 규제의 흐름은 국내 자생 플랫폼을 역차별하고 오히려 이들의 성장동력을 저해할 수 있다는 우려의 목소리가 높습니다. 플랫폼 기업들이 직면하는 주요 법적 이슈, 예를 들어 데이터 활용과 관련된 개인정보 규제, 플랫폼 내 거래의 공정성 확보, 글로벌 확장에 따른 국가별 규제 대응 등에 대해 포괄적이고 실질적인 자문을 제공할 계획"이라고 설명했다. 아울러 린의 플랫폼·공정거래팀에는 전 공정거래위원회 상임위원 출신인 박재규 고문도 팀에 합류했다. 박 고문은 공정위에서 11년간 담합, 시장지배력 남용, 기업결합 등 다양한 공정거래 이슈를 다룬 후 2년간 상임위원으로 공정위 사건의 심의와 의결을 주도했다. 특히 플랫폼 기업과 밀접한 관련이 있는 기업결합, 불공정거래 분야에서의 그의 풍부한 경험과 정책 결정 노하우는 팀의 규제 대응 및 기업 자문 역량을 한층 강화할 것으로 기대된다. 30년 이상의 공정거래위원회 경력을 가진 강신민 고문도 린의 플랫폼·공정거래팀에 합류했다. 강 고문은 카르텔, 기업결합, 불공정거래행위 등 공정위 소관 전 분야의 전문가로, 특히 플랫폼 기업 관련 규제에 깊은 식견을 갖추고 있다.

2024.09.25 18:21안희정

오픈AI 'o1'로 AGI 시대 성큼…"정부·기업, 개발 투명성 고려 필수"

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개하면서 일반인공지능(AGI) 시대를 향해 한 걸음 더 나아갔다는 평가를 받는다. 이달 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 o1 프리퓨 버전과 미니 버전을 블로그를 통해 공개했다. 이 모델 시리즈는 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제를 해결할 수 있다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. AI 업계가 고도화된 기술을 쏟아내고 있는 만큼 중요하게 부각되는 부분도 생겼다. 바로 AI 규제다. 현재 미국은 캘리포니아 AI 안전법을 통과시켜 개발 투명성과 안전성 부각에 나섰다. 유럽연합(EU)은 물론이고 캐나다와 영국, 일본도 마찬가지다. 이에 발맞춰 국내서도 최소한의 투명성 관련 규제가 필요하다는 의견이 나오고 있다. AGI 시대로 다가갈수록 AI 기반 솔루션과 결과물이 예측 불가하다는 이유에서다. 법무법인 태평양 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 고도화된 AI 시스템이 산업계에 안착하기 위해 필요한 법안에 대해 이야기 나눴다. 생성형 AI와 관련한 딥페이크, 저작권 문제, 근로 환경 등 이슈에 대한 의견도 공유했다. 법무법인 태평양은 AI팀 활동을 올해 초 본격화했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. Q. 지난주 오픈AI가 사람처럼 추론할 수 있는 고급 모델을 내놨다. 산업계가 AI 시스템 고도화를 신속히 진행하고 있다. 이럴수록 AI 규제 필요성이 더 높아지지 않을까. 윤: 그동안 기업이 AI 시스템 고도화를 위한 기술을 꾸준히 내놨다. 앞으로 기존 개발 틀을 벗어나진 않을 것 같다. 다만 고도화된 AI 시스템으로 무엇을 만들지 아무도 예측할 수 없다. 결국 AGI 등 고도화된 AI 시스템이 산업에 안착하려면 최소한 규제는 필요할 것이다. 이중 개발 투명성이 가장 중요하다. 정부가 개발자나 AI를 사용하는 기업에 데이터 사용 방식이나 모델 알고리즘에 대해 질문을 요구할 수 있는 규제가 필요하다. 다만 AI 산업이 어느 정도 성장한 단계에서 해당 규제를 추진해야 할 것이다. Q. 기업이 정부에게 AI 기술을 의무로 공개하는 법 정도로 이해하면 되는 건가. 조금 더 구체적으로 설명해 달라. 윤: AGI는 지금보다 훨씬 더 고도화된 AI 시스템이다. 그동안 전문가들은 AI 모델에서 파생되는 새 기술을 예측할 수 있었다. 반면 고도화된 AI 시스템이 출현하면, 예측할 수 없다. 기술 불확실성이 커진다는 의미다. 정부는 AI의 불확실성과 그로 인한 잠재적 위험을 관리하기 위한 최소한의 조치 정도로만 규제를 설정하면 된다. 개발자나 기업이 AGI로 특정 결정을 내릴 때 그 결정 과정이나 근거를 정부에 설명하거나 공개할 수 있는 체계다. 정부는 향후 이런 법안을 입법에 넣어야 한다. 이보다 더 강력한 규제는 삼가야 한다. 오히려 기술 중립성을 해칠 수 있다. Q. 현재 국내에선 현존 AI 기술로 인한 이슈가 많다. 딥페이크가 대표적이다. 정부가 딥페이크 피해 방지를 위해 여러 법안 제정을 추진 중이다. 충분히 피해를 최소화할 수 있을 것으로 보는가. 강: 방송통신위원회가 제정을 추진 중인 이용자보호법에는 딥페이크 피해 방지를 위해 AI로 생성된 콘텐츠에 AI 생성물 표시를 의무화하는 법 등을 도입할 것으로 보인다. 그러나 표시 의무 규정 법안만으로 문제를 완벽히 해결할 수 없다. 딥페이크 영상물에 AI 생성물 표시 의무를 부과하면, 일차적으로 허위 정보 확산을 방지하고 제작자·유포자에게 책임은 물을 순 있다. 그러나 딥페이크 제작자나 유포자의 거짓 고지 가능성이 있다. 이용자보호법이 문제 해결에 실효성있게 작동하려면 정부는 지금보다 디테일한 집쟁 정책을 운영해야 한다. Q. 최근 미국 캘리포니아주가 AI 안전법 'SB 1047'을 통과시켰다. 거대 AI 모델에 대한 강력한 규제를 담고 있는 법안이다. 일각에선 SB 1047이 책임소재와 범위가 과도하다는 지적이 나오고 있다. 이를 어떻게 평가하는지. 강: 해당 법안에는 AI로 인한 핵심 피해 방지를 위한 안전 평가 관련 내용과 AI 모델 개발자들에 대한 독립적 제3기관에 의한 감사, 보고의무, 학습을 포함한 AI 모델 기능을 중단시키는 전제 중단 기능 구현, 공공 안전 위협에 대한 징벌적 손해배상 등 내용을 담고 있다. AI가 가져올 위험을 통제할 수 있는 장치가 필요하다는 점에 대해서는 공감한다. 다만 이런 강력한 규제는 이미 기술·산업적으로 최정점에 서 있는 국가에서나 효율적일 수 있다고 본다. 오히려 시장에 진입하고자 하는 해외 경쟁업체들에 진입장벽으로 기능할 수도 있다. Q. 해당 법이 최종 승인되면 다른 나라 AI법에도 영향 미칠 전망이다. 국내 정부도 SB 1047과 노선을 같이할 수 있는 법안을 마련할 것으로 보는가. 강: 현재 과학기술정보통신부에서 제정을 추진하고 있는 AI 기본법은 AI 산업 진흥에 관한 법률이다. AI 시스템 규제에 초점을 맞추고 있는 법은 아니다. SB 1047처럼 AI 안전 평가, 제3자에 의한 감사·보고 의무 같은 강력한 규제 사항들이 포함되지 않을 가능성이 있다. 정부가 AI 관련 제도를 마련하는 과정에서 EU나 미국 등의 AI 관련 규제 정책 사례를 참고할 수는 있다. 다만 국내 AI 산업은 아직 성장단계에 있다. 과도한 규제가 가해질 경우 산업 자체가 위축될 수 있다는 점 고려해야 한다. 이후 고도화된 AI 시스템 대비를 위해 개발 투명성 등 적절한 규제를 추가하면 된다. Q. 저작권 이슈도 생성형 AI 산업서 많이 거론되는 주제다. 기업 노력만으로 해결할 수 있는 문제가 아니라는 평가가 이어지고 있다. 윤: 그렇다. 그동안 학습용 데이터를 무료로 이용하는 행위에 관대한 분위기였다. 챗GPT 출현 후 저작권 이슈가 나오고, 지난해 하반기부터 소송이 이어지면서 분위기가 달라졌다. 데이터 활용이 유료로 전환될 필요가 있다는 목소리가 나와서다. 이미 데이터 학습을 AI 모델에 충분히 진행한 업체나 대기업은 이에 동의하는 입장이다. 저작권 이슈는 생성형 AI 산업계와 저작권 관련 업계가 공감대를 형성해야 한다고 본다. 이는 법 마련보다 더 시급한 과제다. 지난해 저작권위원회와 문화체육관광부가 생성형 AI 저작권법 제정에 나선 바 있다. 안타깝게도 결과가 잘 안 나왔다. 당시 양측 공감대가 없었기 때문이라고 본다. 지난해 국회도 저작권법 논의 때 해결 주제를 이야기하긴 했다. 아직 마침표를 찍지 못했다. 정부가 나서서 속도감 있게 생성형 AI 산업계와 저작권 관계자 등으로부터 의견을 충분히 모으는 역할을 해야 할 것 같다. Q. 생성형 AI가 산업에 도입되면 근로 환경도 변할 것이란 전망이 나오고 있다. 기업이 직원을 AI로 대체하는 과정에서 법률적 문제를 겪을 것으로 보인다. 윤: 단정 짓기 어려운 문제다. 국내에 AI와 근로법이 충돌한 사례가 아직 없기도 하다. 다만 기업이 신규 채용을 줄이는 방식을 가장 합리적인 선택으로 볼 것 같다. 이 부분에서도 정부 역할은 필요하다. 기업이 신규 채용을 너무 줄이면 정부가 정책을 통해 관리를 해야 한다. 기업과 근로자 공감대 형성도 도와야 할 것이다. Q. 이슈를 종합해 볼 때 앞으로 AI 윤리 중요성이 높아질 것 같다. 최근 기업들이 사내에 AI 윤리위원회를 설치해 AI 개발·활용에 지켜야 할 수칙을 정하는 추세다. 올바른 방향으로 가고 있다고 보는가. 강: 최근 대기업 중심으로 AI 거버넌스를 추진 중인 걸로 알고 있다. AI를 개발·활용할 때 지켜야 하는 원칙 틀을 만드는 추세다. 이런 원칙은 국내에서 한 10개쯤 나와 있다. 문제는 원칙에 디테일이 부족하다는 점이다. 사실 이런 건 법률가들이 잘할 수 있는 업무다. 현재 법률 지식과 기업 사정에 가장 알맞은 디테일을 만들어야 해서다. 그렇지 않으면 거버넌스를 만들어도 AI 이용·개발에 충분히 적용할 수 없을 것이다. Q. 국내 기업이 AI 윤리위원회 설치를 활성화하려면 무엇이 필요한가. 강: 모든 기업이 AI 윤리위원회 필요성을 알고 있다. 다만 위원회만 만들고 끝나는 게 아니라, 실제 회사 내에서 높은 수준의 중요성을 가져야 한다. 이사회 의장 또는 최고경영자가 이를 정말 중요하게 생각해야 한다. 이들이 위원회를 지지해야 결정권도 가질 수 있어서다.

2024.09.18 13:19김미정

'AI 우등생' 엔비디아 어쩌나…美 법무부, 반독점 소환장

거침 없이 질주하던 엔비디아 앞에 '반독점 조사'라는 대형 장애물이 등장했다. 미국 법무부가 엔비디아에 소환장을 보냈다고 블룸버그를 비롯한 주요 외신들이 3일(현지시간) 보도했다. 법무부는 엔비디아가 AI 칩 시장 지배적 사업자로 올라서는 과정에 독점금지법을 위반했는지 여부에 대해 조사하고 있다. 이에 앞서 법무부는 여러 기업들에 질문서를 발송했다. 이런 상황에서 엔비디아에 소환장을 발송한 것은 반독점 소송이 임박했다는 것을 시사한다고 외신들이 전했다. 이번 조사에서 법무부는 엔비디아가 고객사들이 다른 반도체 공급업체로 교체하기 힘들게 하거나, 자사 AI 칩을 독점 사용하지 않는 고객들에게 불이익을 준 부분은 없는 지 살펴보고 있는 것으로 알려졌다. 이런 사실이 알려지면서 이날 엔비디아 주가는 10% 가까이 폭락했다. 그 여파로 엔비디아 시가 총액도 하루 사이에 2천790억 달러(약 374조원)가 사라졌다. 이번 조사에 대해 엔비디아는 시장 지배적 사업자로 부상한 것은 제품 품질이 탁월하기 때문이라고 주장했다. 법무부는 엔비디아의 런:AI 인수에 대해서도 조사하고 있다고 블룸버그가 전했다. 엔비디아는 지난 4월 런:AI를 7억 달러에 인수했다. 런:AI는 플랫폼을 사용해 각 기업 데이터센터 클러스터를 관리해 준다. 법무부는 엔비디아가 런:AI를 인수하면서 AI시장 지배력을 더 강화한 것으로 보고 있다.

2024.09.04 14:12김익현

"韓, 무조건 EU·미국 AI법 따르면 안 돼…AI 법률 정의 필요"

"인공지능(AI) 기본법을 효율적으로 구축하려면 유럽연합(EU)과 미국처럼 AI에 대한 법률적 개념부터 정확히 설정해야 합니다. AI 정의부터 법 적용 범위, 규제 강도 등 틀부터 만드는 것이 급선무입니다. 그래야 EU와 미국식 AI법에 휘둘리지 않습니다." 20일 법무법인 세종 장준영 AI센터장 겸 변호사는 한국데이터법정책학회가 한국프레스센터에서 개최한 'AI 규제법의 국내외 동향 분석·평가와 향후 과제' AI 윤리법제포럼에서 이같이 밝혔다. 장준영 변호사는 과학기술정보통신부에서 AI 입법 자문을 수행 중이다. 장 변호사는 현재 정부가 한국형 AI 생태계 구축에 중요한 첫 발을 내딛었다고 강조했다. 다만 법률 차원에서 한국만의 AI 정의, 규율 대상 등이 명확히 이뤄지지 않았다고 지적했다. 장 변호사는 "22대 국회서 발의된 제정안을 살폈다"며 "해당 법안이 AI 기술을 규제하자는 건지, AI 시스템을 규제하자는 건지 혼동스럽다"고 말했다. 장 변호사는 "이미 EU와 미국, 영국 등은 AI법 제정에 필요한 정의를 구체화했다"며 "AI 개념뿐 아니라 데이터 입력부터 작동방식, 생산, 목적성 등 AI에 대한 핵심적인 요소를 명확히 법에 담았다"고 강조했다. 이어 "국내는 AI법에 필요한 명확한 구체성을 설정하지 않아 우려스럽다"고 덧붙였다. 장 변호사는 "국내 정부가 AI에 대한 정확한 법률 정의 없이 무조건 EU와 미국식 AI법을 따르려 한다"고 지적했다. 이어 "EU는 AI 규칙을 가장 먼저 만들었다"며 "다른 국가와 기업들이 자연스럽게 이를 따르게 하기 위한 야심을 갖고 있다"고 주장했다. 또 "EU는 궁극적으로 글로벌 AI 규제 장악을 목표로 둔 상태"라며 "한국은 국가 차원에서 AI에 대한 명확한 정의나 적용 범위가 필수일 것"이라고 덧붙였다. 이 외에도 장 변호사는 AI 규제 수준에 대한 범위, 규제 의무주체와 위범 기반 접근법에 대한 세부사항에도 구체적인 기준이 필요하다고 했다. 장 변호사는 "AI에 대한 법적 개념이나 중대한 위험을 미치는 AI 영역, 영역별 의무 수준에 대한 사회적 합의 도출이 절실"하다며 "이를 토대로 AI 법적 개념을 얼마나 구체적, 세부적으로 정의하는 게 관건"이라고 주장했다. 이날 이성엽 한국데이터법정책학회 겸 고려대 교수는 "이달 1일 EU AI법이 발효되고 현재 22대 국회에는 6개 AI 법안이 발이된 상황"이라며 "국내외 주요 법안 내용을 비교·분석하고 향후 바람직한 입법방안을 살피는 의미 있는 세미나를 개최해 뜻깊다"고 밝혔다.

2024.08.20 18:31김미정

[기고] 리걸테크 서비스와 '우물 안 개구리'

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 최근 한 로펌에서 인공지능(AI) 기반 법률 챗봇 서비스를 출시했다가 이슈가 됐다. 대한변호사협회가 해당 로펌 소속 일부 변호사에 대한 징계절차를 추진하고 있기 때문이다. 협회는 해당 서비스가 '변호사가 아닌 자가 변호사가 아니면 할 수 없는 업무를 통해 보수나 그 밖의 이익을 분배받아서는 안 된다'는 변호사법 제34조 제5항을 위반했다는 것을 문제 삼고 있다. 생성 AI가 등장한 이래 해외에서는 판례 검색을 넘어 매우 광범위한 영역에서 리걸테크 서비스가 이뤄지고 있다. 또 AI를 통해 실질적인 법적 리스크 분석이나 상담에까지 이르는 깊이 있는 서비스를 제공하고 있다. 전 세계 리걸테크 기업 수는 지난해 말을 기준으로도 이미 7천여 개에 달했다. 우리나라가 올해 5월 AI 서울 정상회의를 성공적으로 개최해 글로벌 AI 기술 및 서비스를 선도하는 국가로 발돋움하고 있음에도 국내 리걸테크 기업은 지난해 말 기준 30여 개에 불과했다. 대표적인 리걸테크 서비스도 변호사들이 이용하는 판례 검색 서비스 수준에 그치고 있다. 전문가들은 국내 리걸테크 산업이 아직 초기단계에 머물러 있다고 진단하고 있다. 그 이유는 아마 AI 관련 규제, 특히 AI 기반 법률 서비스와 관련해 아무런 규제나 지침·해석이 존재하지 않기 때문이다. 이에 따라 업계에서도 출시 가능한 서비스의 형태를 가늠하는 것을 매우 어렵고 부담스러워 하는 것으로 추측되고 있다. 과잉 규제는 업계를 위축시킬 수 있다. 반대로 규제가 없다면 업계는 어디까지가 가능하고 어디부터는 금지되는 서비스인지를 예측할 수 없게 된다. 이에 따라 역설적으로 서비스 출시를 하지 않거나 매우 제한된 범위로만 소극적으로 출시할 수 밖에 없게 된다. 법률 서비스 업계는 특히나 제공 가능한 서비스의 테두리나 한계에 대한 공신력 있는 규범해석이 반드시 필요하다고 느낄 것이다. 법무부 역시 이러한 갈등 상황을 인지하고 있다. 이에 지난 해 일본 법무성이 발간한 'AI 등을 이용한 계약서 등 관련 업무지원 서비스 제공과 변호사법 제72조와의 관계에 대하여' 가이드라인 등을 참고해 관련 지침을 만들 계획이라고 알려져 있다. 일본의 경우 '보수'를 받을 목적으로 출시됐고 '법률사건'에 관계됐으며 '법률사무'를 처리하는 AI 법률 서비스는 일본 변호사법 제72조 위반에 해당한다. 참고로 이 조항은 국내 변호사법 제34조 제5항 및 제109조 제1호와 매우 유사하다. 또 앞서 언급된 AI 기반 법률 챗봇 서비스에서 핵심적으로 문제가 됐던 비변호사의 법률사무 취급 금지에 관한 내용을 담고 있어 참고할 의의가 있다. 일본 가이드라인의 내용을 좀 더 살펴보자. 가이드라인은 '법률사건' 요건과 관련해 '법률상 권리 의무에 다툼 없이 이른바 기업법무에서 취급하는 계약관계 사무 중 통상적인 업무에 수반되는 계약체결을 위한 통상적인 협의나 법적 문제점에 대한 검토'는 소위 '사건성'이 없으므로 AI 법률 서비스가 가능한 영역이라고 설명하고 있다. '법률사무' 요건의 경우 AI 법률 서비스가 계약서 작성·심사·관리 업무 지원 서비스를 제공할 때 이용자가 입력·기재한 내용에 따라 비정형적이고 구체적·개별적인 내용을 표시할 수 있다. 또 개별 사안에 따른 개별적인 법적 분석이 이뤄지는 경우도 있다. 이런 경우 서비스가 변호사법 위반에 해당될 수 있다고 가이드는 설명하고 있다. 가이드는 이를 대략적인 범위 또는 한계로서 제시하고 있는데 이는 눈여겨볼 만한 기준으로 생각된다. 물론 일본의 가이드라인도 법해석과 적용은 최종적으로 법원의 판단에 맡겨져 있으며 이 가이드라인은 '일반론'임을 밝히고 있다. 또 가이드라인이 많은 내용을 담고 있다고 보기는 어려워서 관련된 추가적인 논의와 해석이 뒤따라야 할 것이다. 그럼에도 이 가이드라인은 제도권 내에서 허용될 수 있는 AI 법률 서비스의 테두리를 일정 부분이라도 제시하며 업계가 어떤 방향성을 가지고 AI 법률 서비스를 설계해야 할지에 관한 단서를 제공한다. 나아가 향후 AI 기술·서비스의 발전에 맞춰 업계와의 논의를 거치며 제도를 개선하고 조정해 나갈 시작점을 마련했다는 점에서 작지 않은 의의가 있다. 실제로 일본은 가이드라인 발표 후 리걸테크 서비스 산업이 급성장한다는 평가를 받고 있다. 또 일본 로펌에서 근무하면서 실무를 겪어본 필자의 경험으로도 적어도 AI 기술 활용에 있어서는 일본 법조계가 한국보다 더 빠른 진전을 보여주고 있다는 생각이 든다. 국내 법조 서비스는 한국이라는 지역적 제한과 한국어라는 언어적 한계를 안고 있다. 글로벌 서비스가 이루어지는 리걸 테크의 영역에서 우리의 시야가 너무 좁았던 것이 아닌가를 다시 고민해볼 필요가 있다. 우리도 AI 기반 법률 서비스에 관한 지침 등을 통해 리걸테크 서비스들이 출시될 수 있는 '테두리'를 마련하기를 희망한다. 이를 통해 궁극적으로 우물 안 개구리에 그치지 않고 국민의 일상에 도움이 되는 AI 기반 법률 서비스들이 활발히 제공될 터전이 마련되기를 기대해 본다.

2024.08.20 14:24법무법인 태평양 상지영

"국내 첫 AI팀 꾸려"…태평양이 내다본 한국 AI법 방향은?

유럽연합(EU)이 생성형 인공지능(AI)법 추진을 본격화하면서 전 세계가 분주하다. 미국을 비롯한 캐나다, 영국, 일본 등 각국 정부는 AI 거버넌스 구축을 위해 연구소를 설립하고 대규모 투자를 하는 등 자국 AI법 마련에 나섰다. 한국도 마찬가지다. 정부가 AI안전연구소를 설립하고, 새로 출범한 22대 국회도 AI법 제정에 속도를 내고 있다. 당장 AI법에 영향 받을 대상은 기업이다. AI 기술이나 솔루션 출시를 위해 개인정보법, 데이터법 등 민감한 AI 규정을 세세하게 지켜야 하기 때문이다. 기업들은 원활한 AI 사업과 해외 시장 진출을 위해 AI법에 높은 관심을 기울일 수밖에 없다. 법무법인 태평양은 이런 상황을 4년 전부터 예측·준비해 왔다. 그동안 태스크포스(TF)형태로 운영됐던 AI팀은 올해 초 활동을 본격화 했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. 태평양 AI팀장 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 태평양 AI전담팀 특장점을 비롯한 인력 구성 등을 소개했다. 미국·EU AI법에 대한 평가와 향후 한국 AI법이 나아가야 할 방향성에 대해 자세히 들어봤다. Q. 태평양이 국내 첫 AI전담팀을 꾸렸다고 들었다. 이에 대한 배경은. 강: AI팀을 구축한 결정적 계기는 2017년 '이루다' 사건 변호 직후다. 국내에서 AI와 개인정보 보호법을 동시에 다룬 첫 사례다. 변호인단은 재판 뒤 6개월 동안 이루다 관계자들과 개인정보 보호법 위반 사항을 수정하고 데이터 정비를 도왔다. 당시 태평양은 AI와 데이터 처리, 개인정보 이슈 자문 수요가 늘 것으로 추측했다. 예상이 맞았다. 현재 기업들은 태평양의 이루다 데이터 정비 사례를 필수 참고하기 때문이다. 이후 금융권 AI 거버넌스 구축을 도왔다. 농협 사례가 대표적이다. 금융권 AI 컴플라이언스 리뷰 업무까지 맡았다. 산업이 생성형 AI를 구축할 때 법률 리스크 판단을 필요로하다 보니 관련 프로젝트가 꾸준히 들어오는 것 같다. Q. 태평양 AI팀 인재를 새로 영입했는지. 강: 외부에서 AI전문변호사를 영입하진 않았다. 내부 변호사들이 팀을 꾸렸다. 역량이 충분했기 때문이다. 태평양에 항공이나 전자 등 공대 출신 변호사가 많다. 일부 전문위원도 데이터 분야 업무를 수십 년 했다. Q. 현재 국내 로펌들이 AI팀을 꾸리기 시작했다. 팀 필수 역량을 무엇으로 보는지. 윤: 해외 AI법 동향을 잘 파악하는 게 관건이다. 국내 기업이 미국이나 유럽 등에 서비스를 원활히 제공할 수 있게 도와줘야 해서다. 한국에 도입될 가능성 높은 해외 AI규제를 먼저 알아야 한다. 국내 로펌이 해외 로펌들과 활발한 소통을 유지해야 하는 이유다. 태평양은 해외 로펌과 지속적인 컨퍼런스 콜을 통해 AI 정보를 꾸준히 교류하고 있다. 이런 네트워킹을 통해 해외 AI법 동향을 빠르게 수집하고, 한국화하는 데 힘쓰고 있다. 미국·유럽 로펌 세 곳과 정보 공유를 가장 자주 한다. Q. EU AI법과 달리 미국식 AI법은 상대적으로 자율적일 것이란 평가가 나오고 있다. 윤: 미국식 AI법도 EU AI법처럼 규제를 조만간 할 것 같다. 차기 정권이 AI법을 아예 자율 규제로 끌고 갈지, 아니면 기업들에게 가이드를 주고 자율적으로 이를 지키도록 할 건지가 관건이다. 향후 미국식 법은 이 둘 중 하나로 갈 것이다. Q. 미국 대선 결과가 미국 AI법 방향성을 결정할까. 윤: 아직 정해진 바 없다. 모두 아는 것처럼 카멀라 해리스 민주당 대통령 후보는 도널드 트럼프 공화당 후보보다 엄격한 AI법 방향성을 제시할 수도 있다. 트럼프 후보는 현재 바이든 행정부가 추진하는 AI 규제조차 빼자고 주장한다. 이에 미국 빅테크도 트럼프 정부 시절이 지금보다 더 좋았다는 분위기다. 해리스 후보가 당선되면 현재 구조를 유지할 것 같고, 트럼프 후보가 대통령이 되면 AI법이 통상무역 형태로 갈 것 같다. Q. 그런 분위기가 한국에 영향 미칠까. 강: 확실한 건 한국이 AI 개발 인프라를 미국서 갖고 올 때 지금보다 높은 비용을 지불할 수 있다. 이 전제에서 국회의원들은 국내 AI 산업 육성과 자립적인 기술 개발 필요성을 주장할 것이다. 특히 네이버 등 국내 대기업들이 엔비디아 AI칩 구매를 원활히 할 수 있도록 지원해야 한다고 목소리를 높일 것이다. 물론 자유 무역 체계에 따라 기술을 거래하는 건 상관없다. 그러나 AI 기술은 다르다. 단순히 통상적 방식으로만 이뤄질 문제가 아니라서다. 정부는 소버린AI 등을 간과하고 단순히 자유무역 체계에 따라 AI 무역 업무를 처리하면 안 된다. AI 기술 출처나 국가적 배경에 따라 복합적 문제가 발생할 수 있기 때문이다. 한국이 해외와 AI 무역할 때 각국 기술적, 정치적 배경을 고려한 기준을 마련해야 한다. Q. 22대 국회가 AI법을 논의하고 있다. 기본법 틀을 어떻게 만드는 것이 좋을까. 윤: 미국·EU AI법을 무조건 참고하는 것보다 한국적 상황에 맞는 AI 산업 진흥법을 갖춰야 한다. 특히 국내에 AI 보안 문제가 늘고 있다. 정부가 이 문제를 해결하지 않으면 AI 산업은 성장하지 못한다. 이를 위한 위원회를 설치하는 등 국내에 맞는 방향성이 필요하다. 물론 규제도 필수다. 지금 만들지 않으면 안 된다. 향후 EU가 자국 규제법을 따르라고 강제할 것이기 때문이다. 일단 규제 체계를 큰 틀로 만드는 게 급선무다. 규제 범위를 어떻게 정할 것인지, 강도를 어느 정도 설정할 것인지 등은 이후 조정하면 된다. 강: 최종적으로 국내 AI법이 어떤 모습일지 아무도 장담할 수 없다. 행정안전부와 과학기술정보통신부가 AI법에 대해 생각하는 것이 다르고 국회 시각도 이와 다르기 때문이다. 행안부는 강한 AI규제법을 주장하지만 과기정통부는 이를 좀 풀어주자는 의견이 지배적이라서다. Q. 이번 국회는 위험한AI와 금지된AI를 어떻게 정할지도 논의 중이다. 이에 대한 입장은. 윤: 이런 규정은 EU AI에서 왔다. 사실상 한국 정서에 맞지 않는 규정 방식이다. 물론 고위험AI는 존재할 수 있다. 관건은 한국 기업이 고위험AI로 만든 서비스를 제공한 적 있느냐는 것이다. 아직 없다. EU는 법을 이론적으로 접근하고 있다. 그래서 이런 법은 국내서 문제 될 수 있다. 실제 인간 생존과 직결되는 건 당연히 고위험AI로 지정돼야 한다. 이론상 고위험AI 논의가 필요하면 진행 가능하다. 그런데 현실에서 이 부분은 더 논의돼야 한다. Q. 현재 EU도 이 부분에 대해 골치 아플 것 같다. 윤: 그렇다. 지금 EU도 고위험AI 기준을 완전히 마련하지 못했다. EU는 제3자 적정성 평가를 통해 AI를 고위험으로 분류할 방침이다. 문제는 아직 평가 기준조차 없다. EU는 2026년 8월부터 고위험AI에 대한 리스크 세부사항을 내놔야 한다. 딱 2년 남았다. 타임라인에 맞춰 완전한 평가 기준을 만들려면 지금 시작해도 빠듯하다. 강: 결국 AI 규제는 분명히 필요하다. 다만 구체적으로 어느 AI 시스템을 얼마나 규제할 것인지에 대한 문제는 다르다. 이런 정도는 국가·사례마다 다를 것 같다. 큰 틀로 규제를 서둘러 마련하고, 세부적으로 지정할 것과 추가 판단할 것을 정해야 한다. Q. EU AI법이 전 세계에 본격적으로 영향 미치면 국내 시장은 어떻게 변할까. 윤: 국내 시장은 두 가지 특징을 보일 것 같다. 우선 EU AI법에 맞춰 유럽형 서비스를 제공하려는 국내 AI 기업이 생길 것이다. 이는 로펌뿐 아니라 다수 전문가가 예측하는 AI 시장 모습이다. 특히 국내 대기업이 AI규제 기준을 주도할 것으로 본다. 다만 한국 AI법만 기준으로 설정하지 않을 것이다.국내 기업들은 정부가 해외 규제를 따를 가능성을 높이 보기 때문이다. 이에 대기업은 미국·EU AI법이 국내에 들어오는 정도, 범위 등을 판단할 것이다. 이를 자문하는 로펌 역할이 더 중요해질 전망이다.

2024.08.19 17:52김미정

美 법무부, '구글 분할' 초강수 둘까

구글과의 반독점 소송 1심에서 승리한 미국 법무부가 기업 분할 방안까지 검토하고 있는 것으로 알려졌다. 미국 법무부는 구글의 독점적 행위를 막기 위한 조치 중 하나로 분할안도 고려하고 있다고 블룸버그통신이 13일(현지시간) 보도했다. 독점금지법 위반으로 기업 분할을 추진하는 것은 20년 전 마이크로소프트 이후 처음이다. 하지만 2001년 미국 법무부의 마이크로소프트 분할 시도는 결국 실패했다. 법무부는 또 구글이 경쟁업체들과 더 많은 데이터를 공유하도록 하는 방안 등도 제재 방안으로 검토하고 있는 것으로 알려졌다. 이를 통해 구글이 인공지능(AI) 제품 등에서 부당하게 경쟁 우위를 누리는 것을 막겠다는 것이다. 이런 조치와 별도로 미국 정부는 구글이 이번 소송 핵심 쟁점인 검색엔진 독점 공급 계약을 금지할 것이 확실시된다고 블룸버그가 전했다. 이에 앞서 미국 워싱턴DC 지역법원은 지난 5일 구글이 시장 독점적 지위 남용을 금지하는 '셔먼법' 제2조를 위반했다고 판결했다. 워싱턴DC 연방법원의 아미트 메타 판사는 판결문에 "일반 검색 서비스와 텍스트 광고 시장에서 독점적 배포 계약을 통해 독점을 유지함으로써 셔먼법 제2조를 위반했다"고 적었다. 이 같은 판결에 대해 구글은 항소하겠다고 밝혔다. 이에 따라 이번 소송 최종 판결이 나오기까지는 상당한 시일이 걸릴 전망이다. 이런 가운데 미국 법무부가 구글 분할 같은 강경 조치도 검토하고 있다는 사실이 알려지면서 관심이 쏠리고 있다. 하지만 블룸버그는 법무부가 구글 해체라는 강경 조치보다는 덕덕고(DuckDuckGo)나 마이크로소프트 빙(Bing) 등 경쟁 서비스에 더 많은 데이터를 공유하도록 강제하는 수준에서 타협안을 제시할 수도 있다고 전망했다.

2024.08.14 13:36정석규

송전선로 건설산업에 외국인력 도입…2년간 시범운영

법무부와 산업통상자원부는 구인난을 겪고 있는 국내 송전선로 건설산업 분야에 특정활동(E-7) 외국인력 도입을 허용하는 '송전전기원' 직종 신설 계획을 12일 발표했다. 송전선로 건설 전문인력은 반도체 클러스터 구축·전기차 보급 확대 등 급증하는 전력수요에 대응할 원전·재생에너지 수송망 확충에 필요하지만 열악한 근무환경에서 위험한 작업을 수행하는 특성으로 인해 신규인력 확보에 어려움을 겪어 왔다. 법무부와 산업부는 한국전력 등 관계기관과의 협업과 업계 의견수렴을 통해 연간 300명 범위 안에서 2년 간 특정활동(E-7) 외국인력 도입을 허용하는 시범운영 계획을 수립했다. 또 전력업계에서도 외국인력 도입과 함께 국내 송전 전문인력 신규 양성을 위해 취업교육 확대, 전기공사업체 입찰가점 부여제 등을 추진하고, 송전선로 건설현장에 필요한 안전관리원으로 지역청년을 채용함으로써 국민고용을 창출·지원하기로 했다. 법무부와 산업부는 제도 안착과 국민 일자리 보호를 위해 시범운영 기간 중, 외국인력 선발·관리 현황과 국민고용 확대 노력, 불법체류 방지 대책 이행 여부 등도 공동으로 모니터링할 계획이다. 박성재 법무부 장관은 “현장에 꼭 필요한 우수 외국인력 선발·도입을 위해 노력하고, 균형 잡힌 비자제도 개선을 추진해 정부의 전력망 확충을 지원하겠다”고 밝혔다. 안덕근 산업부 장관은 “법무부의 비자 제도 개선은 전력인프라 확보에 필수적인 인력부족 문제를 해소함으로써 무탄소 에너지의 첨단산업 공급 등을 가능하게 해 산업활성화·국가경쟁력 증대에 크게 기여할 것”이라며 “앞으로 관계부처와 협력해 전문인력 양성 등에도 적극 지원해 나갈 것”이라고 전했다.

2024.08.12 10:13주문정

KISTI-법무부, 외국인행정 빅데이터 교육

한국과학기술정보연구원KISTI)과 법무부는 지난 5일부터 9일까지 닷새간 '2024년 법무부 외국인행정 빅데이터 분석 교육훈련'과정을 운영했다. 이 프로그램은 빅데이터 분석, 슈퍼컴퓨팅, 인공지능 활용 등 KISTI의 내부 역량과 법무부가 보유한 외국인행정 빅데이터를 연계시켜 외국인 정책 수립 및 추진에 활용할 수 있는 빅데이터 분석 전문가를 양성하는 교육 과정이다. 교과정은 ▲빅데이터 분석 개론 ▲빅데이터 분석 도구 및 데이터 활용 ▲외국인행정 빅데이터 분석 및 가시화 등으로 구성돼 있다. KISTI와 법무부는 이번 과정을 기반으로 향후 KISTI 과학기술 인프라를 활용한 법무부 보유 행정 데이터 분석, 외국인행정 빅데이터 플랫폼 개발 등에서 빅데이터 분석 기반 협력체계 구축을 추진할 계획이다. KISTI는 지난 2018년 KISTI 강점 기반 전문교육을 수행하기 위한 교육 전담 부서인 과학데이터교육센터를 설립했다. KISTI가 보유한 데이터, 슈퍼컴퓨팅 인프라와 데이터과학 전문인력을 활용해 산·학·연·정 소속 연구자를 대상으로 전문교육 프로그램을 개발·운영하고 있다. KISTI 김지영 과학데이터교육센터장은 “2021년부터 외국인행정 빅데이터를 기반으로 한 맞춤형 빅데이터 분석 전문가를 양성해 왔다"며 "향후 지속적으로 DT(Data Technology) 기반 사회문제 해결 및 공공서비스 혁신에 기여해 나갈 것"이라고 말했다.

2024.08.09 10:40박희범

내방니방-더에이치황해, '위플라' 법률자문 지원 맞손

주거용부동산 디지털 전환 스타트업 내방니방(대표 남근호)은 법무법인 더에이치황해와 1인 가구 주거 서비스 '위플라'에 대한 법률자문 지원 업무협약(MOU)을 체결했다고 6일 밝혔다. 내방니방은 뉴패러다임인베스트먼트로부터 '2024 아기유니콘 성장 프로그램 1호 투자' 스타트업으로 최종 낙점돼 최근 프리 A 투자를 유치했다. 올해는 부산 대표 기술창업기업인 '브라이트 클럽'으로 선정되기도 했다. 2020년 6월 설립된 내방니방은 주거용 부동산 위탁관리와 운영, 공간 브랜딩 분야에서 전문성을 갖춘 스타트업이다. 내방니방은 1인 주거용 부동산 관련 사업을 인천을 비롯해 부산 등 지방으로도 본격적으로 확장하고 있다. 이번 협약은 내방니방이 운영하는 주거서비스 위플라를 비롯해 건물주와 세입자 등 고객들에게 정확하고 안전한 법률적 테두리 내에서 체계적이고 전문적인 서비스를 제공하기 위해서다. 내방니방이 영위하는 사업 영역 및 그 밖의 법률 문제 일체에 대해 서면, 구두 자문 및 소송을 상호 협력을 통해 해결할 예정이다. 남근호 내방니방 대표는 "내방니방의 1인 주거공간 서비스가 주거용 부동산뿐만 아니라 상업용 부동산으로도 확장하는 데 법무법인 더에이치황해가 든든한 법률적 동반자가 돼줄 것으로 신뢰한다"고 밝혔다.

2024.08.06 18:03백봉삼

[기고] EU AI법 시행과 AI규제 방향

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 2013년작 영화 '그녀(Her)'에서 인공지능(AI) 서비스 사만다가 등장한다. 사만다는 이용자 맞춤형 소프트웨어(SW)인데 인간과 자연스러운 대화를 할 뿐만 아니라 대량 정보를 처리하면서 스스로 학습하고 인간과 교감을 하는 것처럼 보이는 단계까지 진화하는 모습을 보여준다. 이 영화는 AI 서비스가 등장한다면 어떤 모습일지를 풍부한 상상력으로 구현했다. 그 후 10년도 채 지나지 않아 챗GPT가 등장해 현실에서도 인간과 유사한 지능을 구현한 AI인 범용인공지능(AGI) 서비스가 상용화되는 날이 머지않아 올 것이란 기대를 갖게 됐다. 기술발전이 빠르게 진행되면서 AI기술과 그에 기반한 새로운 서비스를 어떻게 규제 영역으로 포섭하는 것이 좋을지에 대한 논의도 활발하게 진행되고 있다. 유럽연합(EU)은 2018년 일반 개인정보 보호법인 GDPR(General Data Protection Act)를 제정했다. 당시 개인정보 규제에 있어 전세계적인 영향력을 발휘함으로써 소위 브뤼셀 효과(Brussel effect)라는 신조어를 낳았다. 이처럼 AI 규제 분야에서도 선도적인 역할을 하고 있다. 그 결과 올해 8월 1일 AI에 관한 전세계 최초의 포괄적인 규제법인 EU AI법이 발효됐다. EU AI법은 부정적 영향을 줄 위험이 높을수록 더 엄격한 규제가 적용되게 구성됐는데 특정 제품이나 분야에서 AI 기술을 활용할 때 발생할 수 있는 위험 정도에 따라 허용할 수 없는 위험, 고위험, 제한된 위험 및 최소한의 위험으로 구분해 차등적으로 규제하고 있다. EU AI법 전문 제1조는 이 법의 목적으로 '인간 중심적이고 신뢰할 수 있는 AI의 활용을 촉진하고, EU내 AI 시스템의 유해한 영향으로부터 민주주의, 법령 및 환경 보호 등 EU 기본권 헌장에 명시된 건강, 안전 및 기본권을 높은 수준으로 보호'하는 것을 포함하고 있다. AI 시스템은 어디까지나 인간을 돕기 위한 것이어야 함을 전제하고 있고 자연히 인간의 기본적 권리를 침해할 가능성이 있는 AI 기술 활용은 금지된다. 이 법에서 명시하고 있는 금지된 AI 서비스로는 행동을 왜곡하고 정보에 입각한 의사결정을 방해해 심각한 피해를 입히는 잠재의식, 조작 또는 기만적 기술을 배포하는 경우, 직장 및 교육 기관에서 개인의 감정을 추론하는 경우, 인종, 종교적 신념, 성적 지향 등과 같은 보호되는 특성에 따라 개인을 분류하는 생체 인식 분류 시스템으로서의 AI 시스템, 인터넷이나 CCTV 영상에서 얼굴 이미지를 비표적 스크래핑해 얼굴 인식 데이터베이스를 생성하거나 확장하는 경우, 개인의 특성·행동과 관련된 데이터로 개별 점수를 매기는 사회적 점수 매기기 등이 있다. 금지되는 것까지는 아니지만 인간의 안전이나 기본권에 고위험을 가져올 수 있는 AI시스템에 대해서도 EU AI법은 상세히 규정하고 있다. 의료, 교육, 선거, 핵심 인프라 등에 활용되는 AI 기술은 고위험 등급으로 분류돼 시장에 출시되기 전 인간이 AI 사용을 반드시 감독해야 하고 위험관리시스템을 갖춰야 한다. 고위험 AI시스템의 요건을 충족하는지 확인되면 위험평가와 관리 의무가 부가된다. 이러한 고위험 AI 시스템에는 의료 기기, 장난감, 기계류 등 EU 제품 안전 규정에 따라 규제되는 제품 또는 해당 제품의 안전 구성 요소인 AI 시스템, 중요 인프라, 금지되지 않는 생체 인식, 생체 인식 분류 시스템 또는 감정 인식 시스템인 AI 시스템, 고용, 근로자 관리 및 자영업에 대한 접근에 사용되는 AI 시스템, 개인의 신용도를 평가해 신용 점수를 설정하는 AI 시스템 및 생명 및 건강 보험의 경우 개인과 관련된 위험 평가 및 가격 책정에 사용되는 AI 시스템 등이 포함된다. EU AI법의 제반 규정들은 인간 중심적 AI를 개발 및 활용해야 한다는 입법 취지를 명확하게 반영하고 있다. 금지된 AI 서비스와 고위험 AI 시스템에 대한 규제를 보면 AI기술 발전에 따라 초래될 수 있는 인간의 자유와 기본적 권리를 침해하는 데이터 활용을 원천적으로 차단하고자 하는 의지가 느껴진다. 이에 대해서는 EU AI법이 과도한 선제적 규제로 AI기술과 시장이 미처 성숙할 시간을 주지 않고 규제해 AI기술의 발전에 제약이 될 것이며, 위반 시 전세계 매출액의 최대 3퍼센트(금지된 AI를 출시할 경우 전세계 매출액의 7퍼센트)에 해당하는 과징금의 부과에 대해서도 너무 큰 부담을 지우는 것이라는 의견도 존재한다. 새로운 기술의 개발 및 활용에 있어 규제를 공백으로 두기 보다는 어느 정도의 규제는 필요할 것이다. 아직 AI에 대한 구체적인 법령이 발효되지 않았지만 오랜 기간 이에 고민을 해온 우리나라는 포괄적 AI규제의 사실상 첫 스타트를 끊은 EU AI법의 내용뿐만 아니라 해당 법 집행에 따른 결과 등을 면밀히 분석함으로써 국민 기본권을 보호할 뿐만 아니라 국제적인 산업경쟁력을 갖출 수 있도록 하기 위한 AI 법제를 구축할 수 있기를 기대해 본다.

2024.08.06 08:18이강혜

검찰, '티메프' 수사팀 투입...구영배 대표는 출국 금지 조치

검찰이 티몬·위메프 사건에 전담수사팀을 투입하기로 했다. 법무부는 구영배 큐텐 대표에 대한 출국금지를 조치했다. 이원석 검찰총장은 29일 대검찰청 대변인실을 통해 “서울중앙지검에 티몬·위메프 사태와 관련해 반부패수사1부를 중심으로 전담수사팀을 구성하고, 신속하고 철저하게 수사해 소비자와 판매기업 피해를 최소화하도록 긴급 지시했다”고 밝혔다. 이에 서울중앙지검은 이준동 반부패수사1부장을 포함, 검사 7명으로 전담수사팀을 꾸린 것으로 알려졌다. 반부패수사1부는 중요 기업 범죄, 대형 경제 범죄 등을 수사하는 부서다. 티몬·위메프 피해자들은 오늘 구영배 대표와 경영진을 특정경제범죄 가중처벌법상 사기·횡령·배임 혐의로 경찰에 고소, 고발했다. 이들은 티몬과 위메프가 정산대금을 줄 수 없으면서도 쇼핑몰을 운영했다면서, 큐텐 자회사인 큐익스프레스를 키우기 위해 불법적으로 자금을 유용하고 회사 경영을 방만하게 했기 때문에 이는 배임이나 횡령에 해당된다고 주장했다. 해당 사건은 서울 강남경찰서 수사1과에 배당됐다. 아울러 경찰은 구영배 큐텐 대표에 대한 출국금지 요청을 했다. 출국금지 요청을 받은 법무부는 구 대표에 대한 출국금지 조치를 내린 것으로 전해졌다. 법무부는 구대표의 출국을 막을 필요성이 인정된다는 판단을 한 것으로 알려졌다. 일부 언론 등을 통해 구영배 대표와 류광진 티몬 대표, 류화현 위메프 대표는 30일 예정된 정무위 긴급 현안질의에 출석하겠다는 의사를 밝힌 것으로 전해졌다. 하지만 이들이 실제 출석할지는 미지수다. 구 대표는 지난 18일 싱가포르에서 귀국한 것으로 알려졌으나, 이번 티몬·위메프 미정산 사태에 침묵을 지키다 오늘에서야 “큐텐 지분 전체 매각이나 담보로 사태 수습에 사용하겠다”고 밝혔다. 이후 티몬·위메프는 서울회생법원에 기업회생을 신청했다. 이들은 “회생 제도를 통해 사업 정상화를 도모하고, 채권자인 판매 회원들과 소비자들이 피해를 받지 않도록 한다는 계획”인데, 실제로 피해자들을 위한 대책이 찾아질 지 업계 이목이 쏠릴 전망이다.

2024.07.29 19:18백봉삼

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 트럼프 만난 이 대통령, 대미 투자 발표 주목…국회 결산 논의

레벨4 자율주행차 시대 막 오른다

노란봉투법, 결국 본회의 통과…다음은 '더 센' 상법 개정

게임스컴 2025, 韓 게임 경쟁력 재확인…나날이 커지는 中 비중

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.