• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI법'통합검색 결과 입니다. (27건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

지멘스·SAP 대표 "EU AI 규제, 혁신 가로막아…전면 재검토해야"

지멘스와 SAP 최고경영자(CEO)가 유럽연합(EU)의 인공지능(AI) 규제가 기술 혁신을 억제한다며 전면적인 재검토를 촉구했다. 롤랜드 부시 지멘스 CEO와 크리스티안 클라인 SAP CEO는 14일 독일 유력지 프랑크푸르터 알게마이네 차이퉁(FAZ)과의 인터뷰에서 "기술 발전을 지원하는 새로운 규제 체계가 필요하다"고 입을 모았다. EU는 지난해 AI법을 제정해 AI 시스템의 개발과 사용을 규제하고 있다. 이 법은 AI 애플리케이션을 위험도에 따라 분류하고 이에 맞춰 보안성과 투명성 요건을 부과한다. 하지만 부시 CEO는 "이 법이 유럽이 뒤처지는 핵심 원인 중 하나"라며 "상호 충돌하거나 중복되는 규제가 혁신을 방해하고 있다"고 지적했다. 특히 그는 EU의 데이터법에 대해서도 "디지털 비즈니스 모델을 구축하는 데 있어 독과도 같다"고 비판했다. 데이터법은 기업이 소비자와 기업 데이터를 활용하는 방식에 대해 의무를 부과하는 법이다. 앞서 구글 모회사 알파벳과 메타 등 일부 빅테크 기업들은 벨기에 브뤼셀에 규제 시행을 연기해달라는 공개서한을 보냈지만, 부시 CEO는 이 서한에 서명하지 않았다. 그는 "이 제안은 충분하지 않다"며 더 근본적인 개혁을 촉구했다. 이와 관련해 클라인 SAP CEO는 유럽이 미국처럼 인프라나 데이터센터에만 막대한 투자를 쏟아붓는 전략을 따라서는 안 된다고 지적했다. 그는 "인프라 부족이 유럽의 가장 큰 걸림돌은 아니다"며 "지금 필요한 건 인프라 투자가 아니라 데이터 활용을 가로막는 규제 개혁"이라고 강조했다. 부시 CEO 역시 "유럽은 데이터라는 보물창고 위에 앉아 있지만, 이를 제대로 활용하지 못하고 있다"며 "지금 부족한 것은 컴퓨팅 자원이 아니라 규제 개혁을 통한 자원 해방"이라고 말했다.

2025.07.14 10:17한정호

EU "AI법 유예 없다"…내년까지 전면 시행 방침 유지

유럽연합(EU)이 인공지능(AI) 활용을 규제하는 이른바 'AI법(AI Act)'을 예정대로 시행하겠다고 밝혔다. 구글과 메타, 프랑스 스타트업 미스트랄AI, 반도체 장비업체 ASML 등 100여 개 글로벌 테크기업이 공동으로 법 시행 연기를 요청했지만 이를 정면으로 일축한 것이다. 6일 로이터에 따르면 EU 집행위원회 토마 레니에 대변인은 "AI법에 대해 많은 보도와 서한, 주장들이 있었지만 시계를 멈추는 일은 없다"며 "유예 기간도, 일시 중지도 없다"고 강조했다. 그는 이어 "우리는 예정된 일정을 그대로 따른다"고 덧붙였다. AI법은 AI 애플리케이션을 위험 수준에 따라 분류해 규제하는 세계 최초의 포괄적 법안으로, 지난해부터 단계적으로 시행에 들어갔으며 내년 중반까지 전면 발효될 예정이다. 법안에 따르면 인간의 행동을 조작하거나 사회적 점수를 부여하는 시스템 등 '허용 불가' 수준의 AI는 전면 금지된다. 얼굴 인식, 생체 정보 처리, 채용 및 교육 분야 등 사회적 영향이 큰 분야에 적용되는 '고위험 AI'는 엄격한 등록 절차와 품질·위험 관리 의무를 따라야 하며 챗봇 등 '제한적 위험 AI'에는 보다 간소한 투명성 기준이 적용된다. 이번 법안은 AI 기술 발전 속도를 따라잡으려는 각국의 규제 움직임 가운데 가장 선도적인 사례로 주목받고 있다. 그러나 업계는 규제 강도가 지나쳐 유럽의 기술 경쟁력을 저해하고 스타트업 생태계 위축으로 이어질 수 있다고 주장한다. 특히 최근 AI 분야에서 미국과 중국의 주도권 경쟁이 가속화되고 있는 가운데 유럽의 법 제도가 글로벌 기술 경쟁에서 발목을 잡을 수 있다는 우려도 나온다. 그럼에도 불구하고 EU는 "기술의 책임 있는 사용과 시민 보호라는 기조 아래 법 적용 일정을 변경하지 않겠다"는 입장을 밝혔다.

2025.07.06 13:49한정호

EU AI법에 반발한 빅테크 CEO들…"지금 시행하면 美·中에 다 밀린다"

유럽 대표 기업들이 인공지능(AI) 규제 집행을 유예해달라고 유럽연합(EU)에 공동 요청했다. 규제가 기술 리더십을 위협하고 산업 전반의 AI 도입을 방해하고 있다는 점을 집중 부각했다. 4일 블룸버그에 따르면 이들 기업은 최근 우르줄라 폰 데어 라이엔 EU 집행위원장, 경제 담당 집행위원, 부위원장단에 공식 서한을 전달했다. 이 서한에는 아서 멘슈 미스트랄 최고경영자(CEO), 기욤 포리 에어버스 CEO, 크리스토프 푸케 ASML CEO, 올라 켈레니우스 메르세데스-벤츠 CEO 등이 서명했다. 이들은 다음달부터 발효될 예정인 AI 법 주요 조항의 집행을 '2년간 중단(clock-stop)'할 것을 요구했다. 유럽 AI법은 지난해 이미 발효됐지만 기업별 구체 의무는 단계적으로 적용되는 구조다. 특히 다음달부터 범용 AI 모델에 대한 규제와 기업의 내부 거버넌스 체계 구축 의무가 본격 시행될 예정이었다. 이번 요청은 바로 이 지점에 대한 집단적 반발 성격이다. 이들은 서한에서 "중복되고 복잡한 규제 체계가 유럽의 AI 기술 리더십 자체를 위협하고 있다"고 주장했다. 이는 단순히 빅테크만의 문제가 아니라 제조·자동차 등 전 산업군이 AI를 경쟁력 수단으로 활용하기 어려운 환경이라는 인식이다. EU가 추구하는 디지털 주권은 오히려 내부 규제 리스크에 발목 잡힐 수 있다는 경고로 풀이된다. 또 핵심 조항 시행 이전에 실질적인 기술 표준과 실행 가이드라인부터 마련돼야 한다는 점도 강조됐다. 법만 있고 현실적인 적용 틀이 없다는 점에서 기업 활동 위축이 불가피하다는 판단이다. 이번 서한은 최근 잇따라 제기되고 있는 'EU AI법 재조정론'과도 맞물린다. EU는 '챗GPT'와 같은 범용 AI 모델에 대한 실무 지침(Code of Practice)을 지난 5월 발표할 계획이었으나 이를 연기한 상태다. 집행위는 현재 해당 지침의 연내 도입 가능성을 검토하고 있다. EU 집행위는 이번 요구에 대해 직접적인 입장을 내놓진 않았지만, 산업계 우려를 의식한 대응을 이어가고 있다. 토마 레니에 EU 대변인은 "AI 인프라, 데이터, 컴퓨팅 자원, 인재, 법적 명확성을 포함한 모든 지원책을 마련할 것"이라고 밝혔다.

2025.07.04 14:28조이환

[기고] EU 데이터법과 인공지능 산업의 발전 방향

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 유럽연합(EU)이 제정하고 실행해 전 세계에 영향을 미치고 있는 많은 법령들이 있다. 개인정보에 관한 강한 보호와 규제를 천명한 일반정보보호규정(GDPR)이 그러하다. 전 세계에서 최초로 입안해 시행했지만 여전히 많은 논란이 제기되고 있는 EU 인공지능(AI)법 역시 전 세계 국가들로부터 반향을 불러일으키고 있다. EU가 이미 관련 법을 제정하고 시행하고 있는 상황에서 우리나라 역시 이에 대한 입법 논의가 이루어지지 않는다면 입법부가 책임을 다하지 않는 것처럼 보일 수 있다. 입법기관 구성원들 역시 마치 아무 일도 하지 않는 사람처럼 비칠 수 있어 무엇이든 조치를 취해야 한다는 압박감을 느낄지도 모른다. 근래의 EU 법안 패키지들 중 시행을 앞두고 있지만 국내에 잘 알려지지 않은 법이 있다. 법의 정식 명칭은 '데이터의 공정한 접근 및 사용에 관한 조화로운 규칙에 관한 규정'이고 줄여서는 EU 데이터법(EU Data Act)라고 부른다. 이 법은 지난해 1월에 제정이 됐고 이로부터 20개월 이후인 올해 9월부터 단계적 시행을 앞두고 있으니 사실 그 시행이 얼마 남지 않은 법이다. 이 법은 EU 내 커넥티드 제품 및 관련 서비스 사용 과정에서 생성되거나 제공되는 정보에 대해 적용된다고 한다. 이용자가 사용하는 것과 관련한 데이터, 이용자의 사용 환경과 관련한 데이터를 수집 및 생성한다. 또 그 정보가 전달할 수 있는 제품의 경우에는 기본적으로 이 법이 적용이 된다. 대부분의 법이 그러하듯 정의 조항을 읽어 봐도 그 내용이 무엇인지를 정확하기 이해하기 어려운 것은 이 법도 마찬가지다. 소위 얘기하는 커넥티드카, 건강 모니터링 기기, 스마트 홈 기기, 스마트폰 등이 이 법의 적용대상이 됨에는 별다른 의문이 없다. 이와 유사하게 서버와 이용자 기기 사이에서 데이터의 교환이 이루어지는 제품과 관련 서비스에 대해서는 모두 적용되므로 그 적용범위가 매우 넓다고 할 수 있다. 이 법은 커넥티드 제품 제조자에게 데이터 접근 중심의 설계를 의무화하고 사용자에게 데이터 제공 관련 정보를 명확하고 이해하기 쉬운 방식으로 안내할 책임을 부과하고 있다. 또 사용자의 요청이 있을 경우 제품이나 관련 서비스에서 생성된 데이터에 대한 접근 권한을 사용자에게 제공해야 하며 데이터 보유자는 사용자가 지정한 제3자와 해당 데이터를 공유할 수 있도록 해야 한다. 이 법은 의무사항을 위반한 경우 제재 수단에 대해 구체적으로 규정하고 있지는 않다. 어쩌면 이 법이 큰 주목을 받지 못하는 것은 이처럼 제재수단에 대해 법 자체에서 규정하고 있지 않기 때문일지도 모르겠다. 그럼에도 불구하고 이 법은 각 회원국에 대해 데이터법 위반자에게 부과할 과징금을 EU 내 연간 매출액 등 여러 요소를 고려해 산정하도록 하는 의무를 부여하고 있다. 이에 따라 이 법을 위반할 경우 매출액을 기준으로 한 과징금이 부과될 것이라는 점에는 큰 의문이 없다. EU 데이터법은 개인정보를 포함한 데이터의 유통을 규율하는 법률인 만큼, 개인정보 유통을 다루는 GDPR과 유사한 규정들이 일부 포함돼 있다. 글로벌 서비스를 제공하는 기업의 입장에서는 GDPR 사례에서처럼 어차피 EU 내 규제를 준수해야 하므로, 커넥티드 제품의 데이터 처리와 관련해서도 EU 데이터법 기준에 맞추어 전 세계 서비스를 동일한 수준으로 확장할 가능성이 충분하다. 과거에는 이용자로부터 수집됐지만 개인정보에 해당하지 않는 데이터의 처리는 이른바 익명정보의 영역으로 간주돼 GDPR의 적용을 받지 않았다. 또 해당 데이터가 저작권법의 보호 대상이거나 그 처리 행위가 부정경쟁행위에 해당하지 않는 이상 별다른 규제가 존재하지 않았다고 볼 수 있다. 반대로 곧 시행되는 EU 데이터법은 데이터의 수집 및 제공에 일정한 의무를 부과함으로써 이제는 이용자로부터 수집하는 데이터에 대해서도 일정한 책임과 준수해야 할 요건이 발생한다는 점을 인식할 필요가 있다. 이에 따라 기존과는 다른 관점에서 데이터 활용에 대한 발상의 전환이 요구된다. AI 산업과 관련해서도 마찬기지이다. EU 이용자로부터 커넥티드 제품을 이용해 데이터를 수집하는 경우에는 비록 개인정보가 아니라 하더라도 EU 데이터법 준수를 항상 명심해야 한다. 이용자로부터 수집한 데이터를 인공지능 서비스 개발을 위한 학습용 데이터로 사용하고자 하는 경우에도 해당 법의 준수를 미리 유의해야 한다. AI 서비스 간의 경쟁이 점점 더 치열해지고 있다. 단순히 산업 내의 문제가 아니라 국가의 생존을 위한 기술패권 다툼의 영역이 되어 가고 있는 상황이다. 이러한 상황에서 EU데이터 법의 제정과 시행이 EU 역내 국가의 경쟁력과 글로벌 시장에 어떠한 영향을 미칠지는 아직 판단하기는 어렵지만 AI를 비롯해 데이터 관련 산업의 경쟁력에 상당한 파급력을 가지게 될 것이다. 산업 보호를 명분으로 제정된 많은 법들이 오히려 기존 사업자들보다 새롭게 시장에 진입하려는 스타트업이나 신생 기업들에게 더 무겁게 작용하는 모습을 우리는 여러 차례 목격해왔다. 우리나라는 적어도 법제 측면에서는 '패스트 팔로워'를 넘어 '퍼스트 무버'로서의 입지를 점차 구축해가고 있으며 실제로 EU 데이터법과 유사한 법제를 이미 보유하고 있다. 이에 따라 산업의 보호와 발전이라는 관점에서 보다 심도 있는 논의가 이루어지고 전략적인 입법 방향이 마련되기를 기대한다.

2025.04.01 15:22법무법인 태평양 강태욱

英, AI로 아동 성적 이미지 생성하면 처벌

영국 정부가 인공지능(AI)으로 아동 성 학대 이미지를 생성하는 행위를 불법으로 규정하기 위한 법안을 발의했다. 3일 BBC 등 외신에 따르면 영국이 전 세계에서 처음으로 AI 성 학대를 법적으로 처벌하기 위한 법적 조치에 나섰다. 해당 법안은 '범죄 및 치안 법안(Crime and Policing Bill)'에 포함된 상태로, 이달 중 국회서 논의될 예정이다. 법 적용 대상은 아동 성 학대 이미지 생성하는 AI 도구 소지자다. 해당 도구로 관련 이미지를 제작하거나 배포, 사용법 안내 행위도 불법이다. 아동 성 학대 콘텐츠 웹사이트를 운영하는 행위도 마찬가지다. 정부는 수사 시 범죄와 관련한 디지털기기 보안 잠금을 임의로 해제할 수 있다. 다수 외신은 온라인 범죄자가 AI로 아동 성 학대 자료를 제작하는 사례가 증가한 가운데 영국 정부가 나선 것으로 분석하고 있다. 인터넷워치재단에 따르면 지난해 관련 이미지 보고 수치가 작년보다 5배 증가한 것으로 나타났다. 그동안 전 세계에서 아동이 노골적인 모습으로 등장하는 콘텐츠 제작·배포가 금지였다. 다만 AI를 통해 해당 콘텐츠를 생성할 때 구체적인 법 적용이 어려웠다. 이에 영국 정부는 AI로 아동 성 착취 콘텐츠를 만든 제작자에게도 명확한 처벌을 내리기 위해 나선 것이다. 예벳 쿠퍼 영국 내무장관은 "온라인뿐 아니라 오프라인에서도 아동 성 학대를 근절하는 것이 사이버 범죄로부터 대중을 강력히 보호할 방법"이라고 말했다.

2025.02.03 10:16김미정

EU, AI법 위반시 최대 '매출 7% 벌금'...기업들 비상

가트너(Gartner)가 발표한 'EU AI법 준비를 위한 1단계: 발견과 목록화' 보고서에 따르면, 2024년 말부터 단계적으로 시행되는 EU AI법이 기업들에게 막대한 재정적 리스크를 안길 것으로 전망된다. EU AI법의 단계별 시행 일정 공개 EU AI법은 2025년 2월부터 단계적으로 시행된다. 첫 단계로 2025년 2월부터 금지된 AI 시스템에 대한 규제가 시작되며, 2025년 8월부터는 범용 AI와 처벌 규정이 적용된다. 2026년 8월에는 대부분의 규정이 시행되고, 최종적으로 2027년 8월에는 Article 6.1과 Annex II에 해당하는 규정이 시행된다. 이러한 단계적 접근은 기업들이 충분한 준비 기간을 가질 수 있도록 설계되었다. AI 위험도별 규제 체계 상세 공개 EU AI법은 AI 시스템을 위험도에 따라 세 가지 범주로 분류한다. '금지된 AI'는 사용자의 자유의지를 침해하거나 '사회적 점수 매기기'에 사용되는 시스템으로, 법 집행 목적 등 극히 제한적인 예외를 제외하고는 전면 금지된다. '고위험 AI'는 인간에게 영향을 미치는 대부분의 AI 기술이 해당되며, 엄격한 요구사항을 준수해야 한다. '저위험 AI'는 AI 기반 추천 시스템이나 스팸 및 바이러스 필터 등이 포함되며, 재고 관리나 문서화 등 비교적 가벼운 요구사항이 적용된다. AI 도입 유형 분류와 대응 전략 가트너는 기업의 AI 도입을 네 가지 유형으로 분류했다. 첫째는 '와일드 AI'로, 직원들이 업무를 위해 공개된 AI 도구를 사용하는 경우다. 둘째는 '임베디드 AI'로, 기업이 사용하는 솔루션에 내장된 AI 기능을 의미한다. 셋째는 '하이브리드 AI'로, 기성 AI 모델과 기업 데이터를 결합한 형태이며, 마지막으로 '인하우스 AI'는 기업이 자체적으로 개발한 AI 시스템을 말한다. EU AI법의 추가 규제 요구사항 EU AI법은 특정 AI 기반 애플리케이션에 대해 위험성 평가, 투명성 의무, EU 전역 데이터베이스 등록을 요구한다. 특히 시스템적 위험을 수반하는 최고 성능의 범용 AI에는 추가적인 의무 요구사항이 적용된다. 기업들은 이러한 요구사항을 준수하기 위해 자사의 AI 시스템을 철저히 점검하고 필요한 조치를 취해야 한다. 기업의 실질적 대응 방안 가트너는 기업의 효과적인 AI 시스템 관리를 위해 구체적인 실행 방안을 제시했다. 우선 기업 아키텍처, 제3자 리스크 관리, 변경 관리, 조달 프로세스를 적절히 수정하여 새로운 AI 기능과 서비스의 도입을 지속적으로 모니터링해야 한다. 완벽한 발견보다는 점진적인 진행이 중요하며, 일반개인정보보호법(GDPR) 준수를 위해 작성된 처리활동기록(RoPA)과 개인정보영향평가(PIA)를 활용하면 발견 및 목록화 과정을 상당히 단축할 수 있다. AI 시스템 카탈로그화를 위한 구체적 행동 지침 기업들은 각 AI 시스템에 대해 상세한 정보를 수집하고 문서화해야 한다. 시스템명, 처리하는 개인정보의 종류(특히 인종, 민족, 정치적 성향, 성별, 성적 지향, 종교적 신념, 노조 가입 여부, 유전자, 생체인식, 건강 데이터 등 민감정보), 처리 목적, 관련 업무 프로세스, 벤더 정보, 개인정보 처리의 법적 근거 등을 포함해야 한다. 가트너는 데이터 중심의 접근을 권장하며, 특히 민감한 개인정보를 처리하는 인사나 마케팅 부서의 AI 시스템을 우선적으로 점검할 것을 조언했다. EU 법률 체계와의 연관성 EU AI법은 기존의 다양한 EU 법률과 연계돼 있다. 기계류 지침, 장난감 안전 지침, 의료기기 규정, 민간항공보안 규정 등 17개 이상의 EU 법률이 AI법과 직접적으로 연관되어 있다. 이러한 기존 EU 법률의 적용을 받는 AI 시스템은 대부분 고위험 AI로 분류될 가능성이 높다. 따라서 기업들은 자사의 AI 시스템이 이러한 법률과 관련이 있는지 세심하게 검토해야 한다. ■ 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다.

2025.01.18 17:28AI 에디터

고려대 법학전문대학원, 데이터·AI법 전문과정 개설

고려대학교 데이터인공지능법 연구센터가 3기 '데이터 인공지능법 전문과정'을 개설한다고 7일 밝혔다. 고려대 법학전문대학원은 변호사 양성의 로스쿨 교육 외에 현대의 전문적인 다양한 주제에 대해 공개강좌(ESEL)를 운영해 관련 분야 종사자들을 재교육하고 있다. 이에 따라 개설된 전문과정이다. 디지털 기술 혁신으로 인해 데이터의 사회적 산업적 가치가 제 분야에서 인정되고 있으며 생성형 인공지능, 디지털 플랫폼 등 데이터의 활용에 따른 다양한 법적 사회적 문제가 전세계적으로 제기되고 있다. 특히 생성형 인공지능 기술은 기업과 개인에게 일상화가 이뤄지고 있으며 이에 따른 법적, 정책적 논의가 본격화되고 있다. 데이터 인공지능법 전문과정은 디지털 대전환에서 비롯하는 복잡다기한 법적 과제와 문제에 대해 강의 및 토론하는 강좌를 제공한다. 국가와 공공기관, 로펌, 사기업체 등 사회 각 분야에서 데이터와 인공지능 등에 관한 업무를 담당하는 공무원, 공공기관 및 사기업의 임직원, 변호사 등이 대상이다. 국내 최고의 데이터, 인공지능 전문가들이 강사진으로 참여하며 2기와 마찬가지로 1년 과정으로 개설돼 내실 있는 교과과정 운영과 원우 간 교류의 기회를 확대할 계획이다. 4월부터 11월까지 19주 35개 강좌와 워크샵, 공개세미나로 구성될 예정이다. 이 과정을 수료하는 경우 고려대 총장 명의의 수료증이 수여되고 고려대 총교우회 정회원 자격도 부여된다. 이성엽 주임 교수는 “지난해 12월 한국이 EU에 이어 세계 2번째로 인공지능기본법을 통과시켰고 1년 뒤 시행을 앞둔 상황에서 국내외 AI, 데이터법의 쟁점에 대한 강의와 토론을 통해 하위 법령 제정이나 기업의 인공지능법 대응에 도움을 줄 것으로 기대한다”고 말했다. 원서접수는 2월1일부터 2월28일까지다.

2025.01.07 13:46박수형

이해민 의원, 'AI신호등법' 발의...AI 사회적 영향력 주목

국회 과학기술정보방송통신위원회 소속 이해민 의원(조국혁신당)은 인공지능 기술의 건전한 발전과 안전한 활용을 위한 인공지능산업 진흥 및 인공지능 이용 등에 관한 법률을 대표발의 했다고 12일 밝혔다. 법안은 AI 기술의 혁신을 지원하면서도 그 영향력을 고려한 적절한 관리체계 구축이 목표다. AI 산업의 진흥을 촉진하면서 동시에 안전성과 윤리성을 확보할 수 있는 균형 잡힌 제도적 기반을 마련했으며 특히 인간 중심 AI 사회 구현을 위해 기술발전과 윤리적 가치의 조화를 강조했다. 이 법안의 가장 주요한 특징은 AI를 단순한 기술이나 위험요소가 아닌 사회적 영향력을 지닌 시스템으로 보는 것이다. 이같은 관점에서 고영향 인공지능을 “사람의 생명, 신체, 건강과 안전, 기본권의 보호, 국가안보 및 공공복리 등에 중대하거나 회복하기 어려운 영향을 미칠 우려가 있는” 경우로 포괄적으로 정의했다. 위험성 중심 규제에서 벗어나 AI 기술의 사회적 영향력에 걸맞은 책임과 관리체계를 구축하려는 시도다. 법안은 또 AI 생태계의 다양한 이해관계자들을 체계적으로 정의했다. AI 개발사업자와 이용사업자를 구분하고, 특히 AI 시스템으로부터 직간접적 영향을 받는 '영향받는 자' 개념을 새롭게 도입했다. 이용자 권익 보호를 위한 제도적 장치도 마련했다. 이는 AI 기술이 개발자나 직접적 이용자를 넘어 사회 전반에 미치는 파급효과를 법제도적으로 인정한 최초의 시도로서 이용자 권익 보호를 위한 포괄적인 제도적 장치를 마련했다는 데 의의가 있다. AI 산업 발전을 위한 규제특례와 지원책도 함께 담았다. 신기술 검증을 위한 실증특례와 임시허가 제도를 통해 새로운 AI 기술과 서비스의 신속한 시장 진입을 지원할 예정이다. AI 기술의 발전과 그 사회적 영향력 관리를 동시에 추구하는 법안의 기본 철학을 반영한 것이다. 이해민 의원은 “현재 AI 산업은 신호등 없는 강남역 사거리를 질주하고 있는 상황”이라며 “이번에 발의한 인공지능법이 제대로 된 혁신과 올바른 이용을 위한 일종의 신호등 역할을 해줄 것을 기대하며 AI 신호등 법이라는 이름을 붙였다”고 설명했다. 이어, “AI는 이제 단순한 기술이 아닌 우리 사회를 근본적으로 변화시키는 동력”이라며 “이번 법안은 AI 가 가진 혁신의 잠재력을 극대화하면서도 그 과정에서 소외될 수 있는 사회 구성원들의 권익을 보호하는 새로운 균형점을 제시하고자 했다”고 강조했다.

2024.11.12 15:13박수형

"삼성과 AI 격차 더 벌어지나"…애플, EU AI법 '자발적 준수 협약' 불참할까

애플이 삼성전자와 구글, 아마존 등이 동참키로 한 유럽연합(EU)의 인공지능(AI)법 준수를 위한 '자발적 협약'에 참여할 지 관심이 쏠린다. 애플은 아직 동참 의사를 밝히지 않은 상태로, 최근 EU 집행위와 경쟁법 위반 등으로 갈등을 빚고 있기 때문이란 분석이 나온다. 22일 업계에 따르면 삼성전자는 다음주께 공식화하는 EU 집행위원회 주도 'AI 협약(AI Pact)'에 참여한다. 이번 협약식은 참여 기업 관계자들이 참석한 가운데 오는 25일 벨기에 브뤼셀 집행위 본부에서 열린다. AI 협약은 업계가 EU의 'AI 법'이 본격 시행되기 전 유예기간에도 안전하고 투명한 AI 사용을 위해 노력하겠다는 자발적 서약이다. EU의 AI법은 세계 최초의 포괄적 AI 규제로, AI 기술을 접목한 제품이 EU 시장에 출시되는 과정에 적용되는 규칙이다. 집행위는 AI법이 지난 8월 발효됐지만 고위험 AI 규제 등 대부분 규정이 전면 시행되기까지는 시간이 걸릴 것으로 보여 그간 기업들을 대상으로 협약 참여를 독려해왔다. 현재까지 참여 의사를 밝힌 곳은 삼성전자 외에 구글, 아마존, 마이크로소프트(MS) 등 100여 개 IT 업체인 것으로 알려졌다. 반면 최근 EU 규제당국과 각을 세우고 있는 애플은 여전히 동참 의사를 밝히지 않았다. EU 집행위가 올 초 발효된 유럽 디지털시장법(DMA) 상 명시된 '상호운용성'을 지키기 위해 애플의 핵심 전략인 '폐쇄적 생태계'를 개방하라고 연일 압박하고 있는 것이 영향을 준 것으로 분석된다. 집행위는 최근 아이폰에서 삼성전자 갤럭시워치 등 타사 스마트 기기와 연결성을 높이지 않으면 천문학적 벌금을 물리겠다고 경고한 바 있다. AI 협약에 따르면 참여 기업은 '고위험' AI 기술로 분류될 만한 자사 시스템을 사전 점검한다. 또 AI법 준수를 위한 조직 내 AI 거버넌스 전략 수립 등이 요구되며 12개월 뒤 집행위에 진행 경과를 공유해야 한다. EU의 AI법은 특정 제품이나 분야에서 AI 기술을 활용할 때 발생할 수 있는 위험 정도에 따라 4단계로 나눠 차등 규제가 이뤄진다. 우선 인간의 기본적 권리를 침해할 가능성이 있는 AI 기술 활용은 원천 금지된다. 또 챗GPT를 비롯한 범용 AI(AGI)에 대해서는 AI 학습과정에 사용된 콘텐츠를 명시해야 하는 등 투명성 의무도 주어진다. 일부 규정부터 순차 적용되며 2026년 8월부터 전면 시행된다. AI 기술 관련 잘못된 정보를 제공하는 경우 전 세계 연 매출의 1.5%를, 의무 규정 위반 시 3%의 과징금이 각각 부과될 수 있다. 업계에선 이번 일로 삼성전자가 일종의 'AI법 적응 기간'을 가질 수 있게 됐다는 점에서 적절한 결정이라고 평가했다. 업계 관계자는 "삼성전자는 주요 제품에 AI 기술을 광범위하게 활용하고 있다"며 "이번 협약 동참을 통해 EU에 법 준수 의지를 부각하는 전략적 효과도 어느 정도 누릴 수 있을 것으로 보인다"고 봤다.

2024.09.22 18:14장유미

오픈AI 'o1'로 AGI 시대 성큼…"정부·기업, 개발 투명성 고려 필수"

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개하면서 일반인공지능(AGI) 시대를 향해 한 걸음 더 나아갔다는 평가를 받는다. 이달 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 o1 프리퓨 버전과 미니 버전을 블로그를 통해 공개했다. 이 모델 시리즈는 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제를 해결할 수 있다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. AI 업계가 고도화된 기술을 쏟아내고 있는 만큼 중요하게 부각되는 부분도 생겼다. 바로 AI 규제다. 현재 미국은 캘리포니아 AI 안전법을 통과시켜 개발 투명성과 안전성 부각에 나섰다. 유럽연합(EU)은 물론이고 캐나다와 영국, 일본도 마찬가지다. 이에 발맞춰 국내서도 최소한의 투명성 관련 규제가 필요하다는 의견이 나오고 있다. AGI 시대로 다가갈수록 AI 기반 솔루션과 결과물이 예측 불가하다는 이유에서다. 법무법인 태평양 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 고도화된 AI 시스템이 산업계에 안착하기 위해 필요한 법안에 대해 이야기 나눴다. 생성형 AI와 관련한 딥페이크, 저작권 문제, 근로 환경 등 이슈에 대한 의견도 공유했다. 법무법인 태평양은 AI팀 활동을 올해 초 본격화했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. Q. 지난주 오픈AI가 사람처럼 추론할 수 있는 고급 모델을 내놨다. 산업계가 AI 시스템 고도화를 신속히 진행하고 있다. 이럴수록 AI 규제 필요성이 더 높아지지 않을까. 윤: 그동안 기업이 AI 시스템 고도화를 위한 기술을 꾸준히 내놨다. 앞으로 기존 개발 틀을 벗어나진 않을 것 같다. 다만 고도화된 AI 시스템으로 무엇을 만들지 아무도 예측할 수 없다. 결국 AGI 등 고도화된 AI 시스템이 산업에 안착하려면 최소한 규제는 필요할 것이다. 이중 개발 투명성이 가장 중요하다. 정부가 개발자나 AI를 사용하는 기업에 데이터 사용 방식이나 모델 알고리즘에 대해 질문을 요구할 수 있는 규제가 필요하다. 다만 AI 산업이 어느 정도 성장한 단계에서 해당 규제를 추진해야 할 것이다. Q. 기업이 정부에게 AI 기술을 의무로 공개하는 법 정도로 이해하면 되는 건가. 조금 더 구체적으로 설명해 달라. 윤: AGI는 지금보다 훨씬 더 고도화된 AI 시스템이다. 그동안 전문가들은 AI 모델에서 파생되는 새 기술을 예측할 수 있었다. 반면 고도화된 AI 시스템이 출현하면, 예측할 수 없다. 기술 불확실성이 커진다는 의미다. 정부는 AI의 불확실성과 그로 인한 잠재적 위험을 관리하기 위한 최소한의 조치 정도로만 규제를 설정하면 된다. 개발자나 기업이 AGI로 특정 결정을 내릴 때 그 결정 과정이나 근거를 정부에 설명하거나 공개할 수 있는 체계다. 정부는 향후 이런 법안을 입법에 넣어야 한다. 이보다 더 강력한 규제는 삼가야 한다. 오히려 기술 중립성을 해칠 수 있다. Q. 현재 국내에선 현존 AI 기술로 인한 이슈가 많다. 딥페이크가 대표적이다. 정부가 딥페이크 피해 방지를 위해 여러 법안 제정을 추진 중이다. 충분히 피해를 최소화할 수 있을 것으로 보는가. 강: 방송통신위원회가 제정을 추진 중인 이용자보호법에는 딥페이크 피해 방지를 위해 AI로 생성된 콘텐츠에 AI 생성물 표시를 의무화하는 법 등을 도입할 것으로 보인다. 그러나 표시 의무 규정 법안만으로 문제를 완벽히 해결할 수 없다. 딥페이크 영상물에 AI 생성물 표시 의무를 부과하면, 일차적으로 허위 정보 확산을 방지하고 제작자·유포자에게 책임은 물을 순 있다. 그러나 딥페이크 제작자나 유포자의 거짓 고지 가능성이 있다. 이용자보호법이 문제 해결에 실효성있게 작동하려면 정부는 지금보다 디테일한 집쟁 정책을 운영해야 한다. Q. 최근 미국 캘리포니아주가 AI 안전법 'SB 1047'을 통과시켰다. 거대 AI 모델에 대한 강력한 규제를 담고 있는 법안이다. 일각에선 SB 1047이 책임소재와 범위가 과도하다는 지적이 나오고 있다. 이를 어떻게 평가하는지. 강: 해당 법안에는 AI로 인한 핵심 피해 방지를 위한 안전 평가 관련 내용과 AI 모델 개발자들에 대한 독립적 제3기관에 의한 감사, 보고의무, 학습을 포함한 AI 모델 기능을 중단시키는 전제 중단 기능 구현, 공공 안전 위협에 대한 징벌적 손해배상 등 내용을 담고 있다. AI가 가져올 위험을 통제할 수 있는 장치가 필요하다는 점에 대해서는 공감한다. 다만 이런 강력한 규제는 이미 기술·산업적으로 최정점에 서 있는 국가에서나 효율적일 수 있다고 본다. 오히려 시장에 진입하고자 하는 해외 경쟁업체들에 진입장벽으로 기능할 수도 있다. Q. 해당 법이 최종 승인되면 다른 나라 AI법에도 영향 미칠 전망이다. 국내 정부도 SB 1047과 노선을 같이할 수 있는 법안을 마련할 것으로 보는가. 강: 현재 과학기술정보통신부에서 제정을 추진하고 있는 AI 기본법은 AI 산업 진흥에 관한 법률이다. AI 시스템 규제에 초점을 맞추고 있는 법은 아니다. SB 1047처럼 AI 안전 평가, 제3자에 의한 감사·보고 의무 같은 강력한 규제 사항들이 포함되지 않을 가능성이 있다. 정부가 AI 관련 제도를 마련하는 과정에서 EU나 미국 등의 AI 관련 규제 정책 사례를 참고할 수는 있다. 다만 국내 AI 산업은 아직 성장단계에 있다. 과도한 규제가 가해질 경우 산업 자체가 위축될 수 있다는 점 고려해야 한다. 이후 고도화된 AI 시스템 대비를 위해 개발 투명성 등 적절한 규제를 추가하면 된다. Q. 저작권 이슈도 생성형 AI 산업서 많이 거론되는 주제다. 기업 노력만으로 해결할 수 있는 문제가 아니라는 평가가 이어지고 있다. 윤: 그렇다. 그동안 학습용 데이터를 무료로 이용하는 행위에 관대한 분위기였다. 챗GPT 출현 후 저작권 이슈가 나오고, 지난해 하반기부터 소송이 이어지면서 분위기가 달라졌다. 데이터 활용이 유료로 전환될 필요가 있다는 목소리가 나와서다. 이미 데이터 학습을 AI 모델에 충분히 진행한 업체나 대기업은 이에 동의하는 입장이다. 저작권 이슈는 생성형 AI 산업계와 저작권 관련 업계가 공감대를 형성해야 한다고 본다. 이는 법 마련보다 더 시급한 과제다. 지난해 저작권위원회와 문화체육관광부가 생성형 AI 저작권법 제정에 나선 바 있다. 안타깝게도 결과가 잘 안 나왔다. 당시 양측 공감대가 없었기 때문이라고 본다. 지난해 국회도 저작권법 논의 때 해결 주제를 이야기하긴 했다. 아직 마침표를 찍지 못했다. 정부가 나서서 속도감 있게 생성형 AI 산업계와 저작권 관계자 등으로부터 의견을 충분히 모으는 역할을 해야 할 것 같다. Q. 생성형 AI가 산업에 도입되면 근로 환경도 변할 것이란 전망이 나오고 있다. 기업이 직원을 AI로 대체하는 과정에서 법률적 문제를 겪을 것으로 보인다. 윤: 단정 짓기 어려운 문제다. 국내에 AI와 근로법이 충돌한 사례가 아직 없기도 하다. 다만 기업이 신규 채용을 줄이는 방식을 가장 합리적인 선택으로 볼 것 같다. 이 부분에서도 정부 역할은 필요하다. 기업이 신규 채용을 너무 줄이면 정부가 정책을 통해 관리를 해야 한다. 기업과 근로자 공감대 형성도 도와야 할 것이다. Q. 이슈를 종합해 볼 때 앞으로 AI 윤리 중요성이 높아질 것 같다. 최근 기업들이 사내에 AI 윤리위원회를 설치해 AI 개발·활용에 지켜야 할 수칙을 정하는 추세다. 올바른 방향으로 가고 있다고 보는가. 강: 최근 대기업 중심으로 AI 거버넌스를 추진 중인 걸로 알고 있다. AI를 개발·활용할 때 지켜야 하는 원칙 틀을 만드는 추세다. 이런 원칙은 국내에서 한 10개쯤 나와 있다. 문제는 원칙에 디테일이 부족하다는 점이다. 사실 이런 건 법률가들이 잘할 수 있는 업무다. 현재 법률 지식과 기업 사정에 가장 알맞은 디테일을 만들어야 해서다. 그렇지 않으면 거버넌스를 만들어도 AI 이용·개발에 충분히 적용할 수 없을 것이다. Q. 국내 기업이 AI 윤리위원회 설치를 활성화하려면 무엇이 필요한가. 강: 모든 기업이 AI 윤리위원회 필요성을 알고 있다. 다만 위원회만 만들고 끝나는 게 아니라, 실제 회사 내에서 높은 수준의 중요성을 가져야 한다. 이사회 의장 또는 최고경영자가 이를 정말 중요하게 생각해야 한다. 이들이 위원회를 지지해야 결정권도 가질 수 있어서다.

2024.09.18 13:19김미정

[현장] AI 기본법 제정, 정부·시민사회 '맞손'

인공지능(AI) 기본법 제정의 필요성과 방향을 논의하기 위해 국회 과학기술정보통신위원회와 시민단체가 손을 맞댔다. 더불어민주당 최민희 의원이 12일 국회에서 시민기술네트워크가 함께 주최한 '시민참여 AI 기본법 추진을 위한 쟁점 토론회'에는 정치인·산업계·정부·시민사회가 참석해 AI 법안 제정에 대한 다양한 의견을 나눴다. 특히 과기정통위 소속 의원 대다수가 참석해 기본법 제정의 필요성을 촉구했다. 첫 번째 발제를 진행한 영국 사회혁신연구소 '스프레드아이'의 김정원 대표는 유럽연합(EU)의 AI 기본법에 대해 소개하며 그 핵심 쟁점과 사회적 영향에 대해 논했다. 김 대표는 "EU는 지난 2018년부터 AI 법안에 대한 논의를 시작해 올해 최종안을 발표했다"며 "AI 사용 시 발생할 수 있는 인권 침해를 방지하기 위해 신중한 법안 구성을 추구하고 있다"고 밝혔다. 김 대표에 따르면 AI 기본법의 가장 핵심적인 쟁점은 고위험 AI에 대한 규제와 적합성 평가다. 현재 AI법에 의하면 표준화 기구가 규제를 주로 담당하고 있기 때문이다. 이 기구들은 주로 산업 안전을 담당해 왔다. 그는 "EU가 인권 보호에 초점을 맞췄음에도 평가기준이 이에 대해 충분히 반영되지 못하고 있다"라며 "표준화 기구들이 주로 산업 안전에만 집중하기 때문에 인권 보호가 소홀해질 수 있다"고 밝혔다. 이어서 발제를 맡은 법무법인 혁신의 박지환 변호사는 21대 국회 이후 AI 기본법 국회 입법안의 발의 과정을 설명했다. 박 변호사는 "21대 국회에서 발의된 AI 관련 법안들은 9건이었지만 이는 결국 회의 종료 이후 폐기됐다"며 "이번 22대 국회에서도 이미 10건이 발의되는 등 법안 제정을 위한 논의가 진행 중"이라고 설명했다. 그러면서 "국가 인권위원회에서는 우선 허용, 사후 규제 원칙 원칙을 삭제하라고 권고했다"며 "고위험 인공지능에 대한 규제가 앞으로도 핵심 쟁점이 될 것"이라고 주장했다. 이날 행사에는 과기정통위 소속의 더불어민주당의 김현 의원, 정동영 의원, 조인철 의원, 한민수 의원, 이훈기 의원, 황정아 의원, 노종면 의원, 이정헌 의원과 국민의힘 최형두 의원, 개혁신당 이준석 의원, 조국혁신당 이해민 의원이 참가해 의견을 나눴다. 이준석 개혁신당 의원은 정치권의 AI에 대한 접근 방식에 우려를 표하며 올바른 기술 활용의 필요성을 강조했다 이 의원은 "'챗GPT'와 같은 생성형 AI 등장 후 기술에 대한 관심이 높아졌다"며 "동시에 정치인들은 AI와 관련된 버즈워드에만 집착하는 상황"이라고 밝혔다. 그러면서 "명확한 가이드라인이 없다면 AI 발전이 오히려 국가에 위험을 초래할 수 있다"고 경고했다. 행사를 공동 주최한 최민희 더불어민주당 의원은 행사의 의미와 AI 법안 통과의 긴급성을 강조했다. 최 의원은 "지난 달부터 준비를 시작해 이번 달 빠르게 토론회를 개최했다"며 "앞으로도 법의 조속한 통과를 위해 시민사회의 의견을 바로 반영하겠다"고 밝혔다. 이번 토론회는 좌장인 이원태 아주대 교수의 진행 아래 하정우 네이버클라우드 AI 소장, 남철기 과학기술정보통신부 과장, 오병일 진보네트워크센터 대표 등 다양한 전문가들이 참여해 AI 법안에 대한 의견을 나눴다. 좌장인 이원태 아주대 교수는 "AI 기본법은 사회 전반에 걸친 중요한 문제"라며 "이번 토론회를 통해 다양한 이해관계자의 의견을 반영할 수 있게 되길 바란다"고 밝혔다.

2024.09.12 18:01조이환

이훈기 의원, 인공지능법 제정안 대표 발의..."산업 발전과 규제 균형"

국회 과학기술정보방송통신위원회 이훈기 의원(더불어민주당)은 12일 인공지능의 발전과 규제의 균형을 맞춘 '인공지능의 발전과 안전성 확보 등에 관한 법률안'을 대표발의 했다고 밝혔다. 법안은 인공지능에 대한 윤리와 신뢰성 확보를 위해 고위험 인공지능 사업자의 책무를 마련하고 '인공지능 영향평가' 규정을 포함시켰다. 영향평가는 인공지능 사업자가 사전에 인공지능 서비스가 기본권에 미치는 사회적 파급효과를 고려하도록 한 것으로, 공공기관 등이 채용이나 공공서비스를 위해 인공지능을 사용할 때 인공지능 영향평가가 완료된 서비스를 우선 이용하도록 한 것이 특징이다. 법안의 주요 내용은 크게 ▲고위험 영역 인공지능 규율 ▲인공지능 위원회 구성 및 운영 ▲인공지능 영향평가 ▲생성형 인공지능 결과물 표시 등이다. 구체적으로 범죄 관련 생체정보, 채용과 대출 등 중대한 개인 권리와 관련된 사항을 고위험 영역 인공지능으로 규율하고, 민간이 과반을 차지하는 민관 합동 인공지능 위원회를 두고 위원회에서 인공지능 기본계획을 심의 의결토록 했다. 또 인공지능에 대한 윤리와 신뢰성 확보를 위해 고위험 인공지능 사업자의 책무 등을 '인공지능 영향평가' 규정에 포함하고 최근 인권 침해를 유발하는 딥페이크를 비롯한 챗GPT 등 생성형 인공지능이 만들어내는 결과물에 생성형 인공지능 결과물이라는 표시를 의무화하도록 했다. 이훈기 의원은 “고위험 인공지능이 우리 국민의 기본권에 미치는 영향이 큰 만큼 별도의 '인공지능 영향평가'를 통해 인공지능 서비스가 사전에 국민 기본권에 미치는 영향을 평가하도록 했다”며 “제정법안 통해 인공지능 발전과 규제가 조화를 이루고 국민 안전을 우선으로 하는 인공지능 기본법 논의가 시작되길 기대한다”고 말했다.

2024.09.12 12:25박수형

[현장] "챗GPT 시대 맞는 AI법 필요"…국회, AI 규제 관련 논의

"지난 21대 국회에서 인공지능(AI) 법을 만들려고 했으나 법제화의 현실이 챗GPT 이전 수준에 머물러 있었습니다. 생성형AI가 나오고 있는 상황에서 알파고 입장에서 법제를 만들면 안되잖아요. 탄탄한 토대 하에 법을 만들기 위해 이번 간담회를 열었습니다." 더불어민주당 조승래 국회의원은 4일 국회 제4간담회실에서 '인공지능(AI)과 디지털 전환(DX)의 미래 정책 방향' 간담회에서 제대로 된 AI 기본법이 필요하다고 말했다. 이번 간담회에서는 AI 기술 확산에 따른 사회경제적 영향과 AI 법제화의 방향에 대해 발표가 이뤄졌다. 조 의원은 "AI는 몇 년 전부터 깊숙하게 들어와 있는 주제지만 국회의 시각은 알파고에 멈춰 있는 것 아닌가라는 의문 들었다"라며 "기술이 합의보다 먼저 가버리는 시기지만 합의가 먼저 이뤄지지 않으면 자칫 속박으로 작용할 수도 있다"고 우려했다. 한국지능정보사회진흥원(NIA) 이용진 AI 정책 본부장은 "과기정통부에 따르면 AI가 성공적으로 도입될 경우 연간 300조원 이상의 경제 효과가 있다"며 "2026년까지 123조원에 가까운 매출 증가와 약 187조원의 비용 절감 효과가 있을 수 있다"고 강조했다. 특히 제조업에선 약 24조원의 매출 상승, 54조원의 비용 절감 효과가 있을 수 있을 수 있다며 산업별로 허들을 정확히 파악해 규제를 만드는 것이 매우 중요하다고 덧붙였다. 이번 간담회는 과학기술정보통신부 후원으로 조 의원과 국민의힘 최형두 국회의원을 포함해 박영선 전 중소벤처기업부 장관, 과기정통부 류제명 네트워크정책실장, 조국혁신당 강경숙 국회의원 등이 참석했다. 이어진 발표에서 법무법인 광장 고환경 변호사는 일본, 미국에 비해 한국은 내세울 수 있는 AI 기술 기업이나 유니콘 기업이 없는 것이 현실이라며 학습데이터나 관리 체계 투자 측면에서 한국이 약점을 갖고 있다고 말했다. 고 변호사는 "AI 기술에 대해서는 대규모 자본 투자가 불가피하기 때문에 규제 불확실성을 빨리 해결해줘야 한다"며 "AI 안전연구소 설치와 관련해서도 실증적 테스트를 통해서 위험에 대해 어느 정도 대처해야 하는지 연구가 적극적으로 이뤄져야 할 필요가 있다"고 언급했다. 고 변호사는 거버넌스를 통해 일관된 정책과 AI와 관련한 최소한도의 예측 가능성을 제시하는 것이 필요하다며 자율규제 방안 마련을 중심으로 최소한의 규제만을 담은 입법 검토가 절실하다고 발언했다. 고 변호사는 앤드류 응 교수의 발언을 인용해 "EU AI 법은 제대로 존재한 적 없는 AI 리스크에 대한 강도 높은 규제를 표하고 있다"며 "이는 시장 뿐 아니라 규제 실패까지도 우려되는 상황"이라고 비판했다. 이어 "EU AI 법의 과징금 부담이 매우 크기 때문에 애플, 메타 등 빅테크가 AI 서비스 출시를 보류했다"며 "소비자들의 AI 서비스가 크게 제한될 조짐이 있다"고 아쉬움을 표했다. 이어진 토론에서 법무법인 세종 장준영 AI 센터장은 "규제적 측면에선 유럽을 참고하고 기술적 측면에선 미국을 참고할 필요가 있다"며 "우리나라는 유럽과 미국 사이에서 어떤 스탠스를 취해야 하는지 균형점을 잘 도출해야 한다"고 강조했다. 또 "AI는 정보처리 기술이 발전해 오며 나타난 데이터 처리 기술의 화룡점정"이라며 "해외의 AI 법을 참고하는 것도 좋지만 우리나라에서 여태 동안 해왔던 데이터 활성화 관련 법안들을 계승하는 AI 기본법이 만들어지길 바란다"고 기대했다. 류 실장은 "지난 3일 과방위에서 늦더라도 AI 기본법 관련해서 제대로 된 논의와 공청회를 한 번 거치고 가면 좋겠다는 의견이 있었다"며 "정책들이 추진되고 예산이 투입되려면 법적 근거가 필요한 만큼 국회가 신뢰할 수 있는 AI를 만들기 위한 법적 근거를 신속히 만들어 주길 바란다"고 말했다.

2024.09.04 16:50양정민

"韓, 무조건 EU·미국 AI법 따르면 안 돼…AI 법률 정의 필요"

"인공지능(AI) 기본법을 효율적으로 구축하려면 유럽연합(EU)과 미국처럼 AI에 대한 법률적 개념부터 정확히 설정해야 합니다. AI 정의부터 법 적용 범위, 규제 강도 등 틀부터 만드는 것이 급선무입니다. 그래야 EU와 미국식 AI법에 휘둘리지 않습니다." 20일 법무법인 세종 장준영 AI센터장 겸 변호사는 한국데이터법정책학회가 한국프레스센터에서 개최한 'AI 규제법의 국내외 동향 분석·평가와 향후 과제' AI 윤리법제포럼에서 이같이 밝혔다. 장준영 변호사는 과학기술정보통신부에서 AI 입법 자문을 수행 중이다. 장 변호사는 현재 정부가 한국형 AI 생태계 구축에 중요한 첫 발을 내딛었다고 강조했다. 다만 법률 차원에서 한국만의 AI 정의, 규율 대상 등이 명확히 이뤄지지 않았다고 지적했다. 장 변호사는 "22대 국회서 발의된 제정안을 살폈다"며 "해당 법안이 AI 기술을 규제하자는 건지, AI 시스템을 규제하자는 건지 혼동스럽다"고 말했다. 장 변호사는 "이미 EU와 미국, 영국 등은 AI법 제정에 필요한 정의를 구체화했다"며 "AI 개념뿐 아니라 데이터 입력부터 작동방식, 생산, 목적성 등 AI에 대한 핵심적인 요소를 명확히 법에 담았다"고 강조했다. 이어 "국내는 AI법에 필요한 명확한 구체성을 설정하지 않아 우려스럽다"고 덧붙였다. 장 변호사는 "국내 정부가 AI에 대한 정확한 법률 정의 없이 무조건 EU와 미국식 AI법을 따르려 한다"고 지적했다. 이어 "EU는 AI 규칙을 가장 먼저 만들었다"며 "다른 국가와 기업들이 자연스럽게 이를 따르게 하기 위한 야심을 갖고 있다"고 주장했다. 또 "EU는 궁극적으로 글로벌 AI 규제 장악을 목표로 둔 상태"라며 "한국은 국가 차원에서 AI에 대한 명확한 정의나 적용 범위가 필수일 것"이라고 덧붙였다. 이 외에도 장 변호사는 AI 규제 수준에 대한 범위, 규제 의무주체와 위범 기반 접근법에 대한 세부사항에도 구체적인 기준이 필요하다고 했다. 장 변호사는 "AI에 대한 법적 개념이나 중대한 위험을 미치는 AI 영역, 영역별 의무 수준에 대한 사회적 합의 도출이 절실"하다며 "이를 토대로 AI 법적 개념을 얼마나 구체적, 세부적으로 정의하는 게 관건"이라고 주장했다. 이날 이성엽 한국데이터법정책학회 겸 고려대 교수는 "이달 1일 EU AI법이 발효되고 현재 22대 국회에는 6개 AI 법안이 발이된 상황"이라며 "국내외 주요 법안 내용을 비교·분석하고 향후 바람직한 입법방안을 살피는 의미 있는 세미나를 개최해 뜻깊다"고 밝혔다.

2024.08.20 18:31김미정

"국내 첫 AI팀 꾸려"…태평양이 내다본 한국 AI법 방향은?

유럽연합(EU)이 생성형 인공지능(AI)법 추진을 본격화하면서 전 세계가 분주하다. 미국을 비롯한 캐나다, 영국, 일본 등 각국 정부는 AI 거버넌스 구축을 위해 연구소를 설립하고 대규모 투자를 하는 등 자국 AI법 마련에 나섰다. 한국도 마찬가지다. 정부가 AI안전연구소를 설립하고, 새로 출범한 22대 국회도 AI법 제정에 속도를 내고 있다. 당장 AI법에 영향 받을 대상은 기업이다. AI 기술이나 솔루션 출시를 위해 개인정보법, 데이터법 등 민감한 AI 규정을 세세하게 지켜야 하기 때문이다. 기업들은 원활한 AI 사업과 해외 시장 진출을 위해 AI법에 높은 관심을 기울일 수밖에 없다. 법무법인 태평양은 이런 상황을 4년 전부터 예측·준비해 왔다. 그동안 태스크포스(TF)형태로 운영됐던 AI팀은 올해 초 활동을 본격화 했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. 태평양 AI팀장 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 태평양 AI전담팀 특장점을 비롯한 인력 구성 등을 소개했다. 미국·EU AI법에 대한 평가와 향후 한국 AI법이 나아가야 할 방향성에 대해 자세히 들어봤다. Q. 태평양이 국내 첫 AI전담팀을 꾸렸다고 들었다. 이에 대한 배경은. 강: AI팀을 구축한 결정적 계기는 2017년 '이루다' 사건 변호 직후다. 국내에서 AI와 개인정보 보호법을 동시에 다룬 첫 사례다. 변호인단은 재판 뒤 6개월 동안 이루다 관계자들과 개인정보 보호법 위반 사항을 수정하고 데이터 정비를 도왔다. 당시 태평양은 AI와 데이터 처리, 개인정보 이슈 자문 수요가 늘 것으로 추측했다. 예상이 맞았다. 현재 기업들은 태평양의 이루다 데이터 정비 사례를 필수 참고하기 때문이다. 이후 금융권 AI 거버넌스 구축을 도왔다. 농협 사례가 대표적이다. 금융권 AI 컴플라이언스 리뷰 업무까지 맡았다. 산업이 생성형 AI를 구축할 때 법률 리스크 판단을 필요로하다 보니 관련 프로젝트가 꾸준히 들어오는 것 같다. Q. 태평양 AI팀 인재를 새로 영입했는지. 강: 외부에서 AI전문변호사를 영입하진 않았다. 내부 변호사들이 팀을 꾸렸다. 역량이 충분했기 때문이다. 태평양에 항공이나 전자 등 공대 출신 변호사가 많다. 일부 전문위원도 데이터 분야 업무를 수십 년 했다. Q. 현재 국내 로펌들이 AI팀을 꾸리기 시작했다. 팀 필수 역량을 무엇으로 보는지. 윤: 해외 AI법 동향을 잘 파악하는 게 관건이다. 국내 기업이 미국이나 유럽 등에 서비스를 원활히 제공할 수 있게 도와줘야 해서다. 한국에 도입될 가능성 높은 해외 AI규제를 먼저 알아야 한다. 국내 로펌이 해외 로펌들과 활발한 소통을 유지해야 하는 이유다. 태평양은 해외 로펌과 지속적인 컨퍼런스 콜을 통해 AI 정보를 꾸준히 교류하고 있다. 이런 네트워킹을 통해 해외 AI법 동향을 빠르게 수집하고, 한국화하는 데 힘쓰고 있다. 미국·유럽 로펌 세 곳과 정보 공유를 가장 자주 한다. Q. EU AI법과 달리 미국식 AI법은 상대적으로 자율적일 것이란 평가가 나오고 있다. 윤: 미국식 AI법도 EU AI법처럼 규제를 조만간 할 것 같다. 차기 정권이 AI법을 아예 자율 규제로 끌고 갈지, 아니면 기업들에게 가이드를 주고 자율적으로 이를 지키도록 할 건지가 관건이다. 향후 미국식 법은 이 둘 중 하나로 갈 것이다. Q. 미국 대선 결과가 미국 AI법 방향성을 결정할까. 윤: 아직 정해진 바 없다. 모두 아는 것처럼 카멀라 해리스 민주당 대통령 후보는 도널드 트럼프 공화당 후보보다 엄격한 AI법 방향성을 제시할 수도 있다. 트럼프 후보는 현재 바이든 행정부가 추진하는 AI 규제조차 빼자고 주장한다. 이에 미국 빅테크도 트럼프 정부 시절이 지금보다 더 좋았다는 분위기다. 해리스 후보가 당선되면 현재 구조를 유지할 것 같고, 트럼프 후보가 대통령이 되면 AI법이 통상무역 형태로 갈 것 같다. Q. 그런 분위기가 한국에 영향 미칠까. 강: 확실한 건 한국이 AI 개발 인프라를 미국서 갖고 올 때 지금보다 높은 비용을 지불할 수 있다. 이 전제에서 국회의원들은 국내 AI 산업 육성과 자립적인 기술 개발 필요성을 주장할 것이다. 특히 네이버 등 국내 대기업들이 엔비디아 AI칩 구매를 원활히 할 수 있도록 지원해야 한다고 목소리를 높일 것이다. 물론 자유 무역 체계에 따라 기술을 거래하는 건 상관없다. 그러나 AI 기술은 다르다. 단순히 통상적 방식으로만 이뤄질 문제가 아니라서다. 정부는 소버린AI 등을 간과하고 단순히 자유무역 체계에 따라 AI 무역 업무를 처리하면 안 된다. AI 기술 출처나 국가적 배경에 따라 복합적 문제가 발생할 수 있기 때문이다. 한국이 해외와 AI 무역할 때 각국 기술적, 정치적 배경을 고려한 기준을 마련해야 한다. Q. 22대 국회가 AI법을 논의하고 있다. 기본법 틀을 어떻게 만드는 것이 좋을까. 윤: 미국·EU AI법을 무조건 참고하는 것보다 한국적 상황에 맞는 AI 산업 진흥법을 갖춰야 한다. 특히 국내에 AI 보안 문제가 늘고 있다. 정부가 이 문제를 해결하지 않으면 AI 산업은 성장하지 못한다. 이를 위한 위원회를 설치하는 등 국내에 맞는 방향성이 필요하다. 물론 규제도 필수다. 지금 만들지 않으면 안 된다. 향후 EU가 자국 규제법을 따르라고 강제할 것이기 때문이다. 일단 규제 체계를 큰 틀로 만드는 게 급선무다. 규제 범위를 어떻게 정할 것인지, 강도를 어느 정도 설정할 것인지 등은 이후 조정하면 된다. 강: 최종적으로 국내 AI법이 어떤 모습일지 아무도 장담할 수 없다. 행정안전부와 과학기술정보통신부가 AI법에 대해 생각하는 것이 다르고 국회 시각도 이와 다르기 때문이다. 행안부는 강한 AI규제법을 주장하지만 과기정통부는 이를 좀 풀어주자는 의견이 지배적이라서다. Q. 이번 국회는 위험한AI와 금지된AI를 어떻게 정할지도 논의 중이다. 이에 대한 입장은. 윤: 이런 규정은 EU AI에서 왔다. 사실상 한국 정서에 맞지 않는 규정 방식이다. 물론 고위험AI는 존재할 수 있다. 관건은 한국 기업이 고위험AI로 만든 서비스를 제공한 적 있느냐는 것이다. 아직 없다. EU는 법을 이론적으로 접근하고 있다. 그래서 이런 법은 국내서 문제 될 수 있다. 실제 인간 생존과 직결되는 건 당연히 고위험AI로 지정돼야 한다. 이론상 고위험AI 논의가 필요하면 진행 가능하다. 그런데 현실에서 이 부분은 더 논의돼야 한다. Q. 현재 EU도 이 부분에 대해 골치 아플 것 같다. 윤: 그렇다. 지금 EU도 고위험AI 기준을 완전히 마련하지 못했다. EU는 제3자 적정성 평가를 통해 AI를 고위험으로 분류할 방침이다. 문제는 아직 평가 기준조차 없다. EU는 2026년 8월부터 고위험AI에 대한 리스크 세부사항을 내놔야 한다. 딱 2년 남았다. 타임라인에 맞춰 완전한 평가 기준을 만들려면 지금 시작해도 빠듯하다. 강: 결국 AI 규제는 분명히 필요하다. 다만 구체적으로 어느 AI 시스템을 얼마나 규제할 것인지에 대한 문제는 다르다. 이런 정도는 국가·사례마다 다를 것 같다. 큰 틀로 규제를 서둘러 마련하고, 세부적으로 지정할 것과 추가 판단할 것을 정해야 한다. Q. EU AI법이 전 세계에 본격적으로 영향 미치면 국내 시장은 어떻게 변할까. 윤: 국내 시장은 두 가지 특징을 보일 것 같다. 우선 EU AI법에 맞춰 유럽형 서비스를 제공하려는 국내 AI 기업이 생길 것이다. 이는 로펌뿐 아니라 다수 전문가가 예측하는 AI 시장 모습이다. 특히 국내 대기업이 AI규제 기준을 주도할 것으로 본다. 다만 한국 AI법만 기준으로 설정하지 않을 것이다.국내 기업들은 정부가 해외 규제를 따를 가능성을 높이 보기 때문이다. 이에 대기업은 미국·EU AI법이 국내에 들어오는 정도, 범위 등을 판단할 것이다. 이를 자문하는 로펌 역할이 더 중요해질 전망이다.

2024.08.19 17:52김미정

[현장] EU AI법 발효… AI 전문 변호사 "투명성이 가장 중요"

"유럽 연합(EU) 인공지능(AI) 법은 적용 범위가 굉장히 넓습니다. 국내에서 출시 되는 AI 서비스여도 EU 시민을 상대로 하면 국가·주소지 관계 없이 법이 준수돼야 하죠. EU AI 법을 명확히 알아야 하는 이유 중 하나입니다." 지난 2일부로 EU AI 법이 발효된 가운데, AI를 주로 다루는 법조 전문가가 EU AI 법에 대한 의견을 밝혔다. 법무법인 원 고인선 변호사는 7일 서울 강남에서 열린 트레인 코리아 주최 '비어 트레인' 세미나에서 '법에서 요구하는 AI 투명성이란 무엇인가?'라는 주제로 발표를 진행했다. 고 변호사는 "AI 산출물이 EU에서 사용되기만 해도 법이 적용된다"며 "당장 금지된 인공지능 관련 조항은 내년 2월부터 시행되기 때문에 관련 종사자들은 법안을 살펴볼 필요가 있다"고 언급했다. 고 변호사는 EU AI 법에서 중요하게 들여다봐야 하는 건 AI 투명성 개념이라고 강조했다. 출시가 될 수 없는 절대적 금지 AI와 달리 고위험 AI와 제한적 AI에 주로 적용되기 때문이다. AI 투명성이란 명확한 데이터 사용 정책을 수립하고 시스템이 왜 그러한 추천을 제공하는지 공개해야 하는 개념이다. 그는 "AI 투명성 개념에서 중요한 건 '추적 가능성'과 '설명 가능성'이다"라며 "AI가 할 수 있는 것과 없는 것에 대한 고지가 충분히 돼야 하고 영향을 받는 인간에 대한 권리 고지도 필요하다"고 강조했다. 고 변호사는 고위험 AI 시스템에 대한 투명성 의무에 대해 ▲설계 및 개발 ▲사용 설명서 첨부 ▲기술문서 관리 ▲로그 관리 ▲인적 감독 ▲EU 데이터베이스 등록이 필요하다고 강조했다. 이어 제50조에 등록된 AI 투명성 의무는 주로 제한적 AI에 적용된다며 ▲감정인식 시스템·생체인식 분류 시스템 ▲딥페이크 등에 의무를 진다고 설명했다. 고 변호사는 "현재 만들어진 법은 기본법의 성격을 크게 가진다"며 "시행령 등 하위법령 등이 나와야 현재 법이 다루지 못하는 부분이나 정확한 규제에 대해 언급할 수 있을 것"이라고 말했다.

2024.08.07 16:39양정민

"한국은 기본법도 없는데"…EU, 세계 최초로 AI 법안 발효

유럽연합(EU)이 인공지능(AI)법을 세계 최초로 발효했다. AI 기술의 안전하고 책임 있는 개발 및 사용을 촉진하기 위함이다. 2일 CNBC 등 외신에 따르면 EU AI법은 회원국·의회·집행위원회의 최종 승인을 받아 지난 1일부터 시행됐다. 이 법은 AI의 부정적 영향을 줄이고 기술 개발을 촉진하는데 필요한 법적 프레임워크 마련을 위해 도입됐다. EU AI법은 '금지 AI', '고위험 AI', '범용 AI 시스템' 등 총 12개의 주요 장으로 구성돼 있다. 특히 AI 시스템의 위험도를 기준으로 규제를 달리하는 '위험 기반 접근법(Risk-based approach)'을 채택해 엄격한 규제를 적용하거나 심지어는 금지한다. EU는 인권 침해 여부를 '금지·고위험 AI'의 주요 기준으로 삼는다. 여기에는 중국이 운영하는 시민 점수 체계나 구직자에게 순위를 매기는 이력서 스캐닝 도구와 같이 시민 자유·노동자 권리를 심각하게 침해하는 AI가 포함된다. 생성 AI에 대한 규제도 포함된다. 법안은 오픈AI '챗GPT', 구글 '제미나이', 앤트로픽 '클로드' 등을 범용 AI 시스템으로 규정하고 저작권 준수·투명성 공개·사이버 보안 보호 등 엄격한 규제를 부과한다. EU AI법은 시행 즉시 발효됐지만 대부분의 조항은 내후년부터 적용될 예정이다. 특히 상용 생성 AI 시스템에 대한 기업 의무 이행에는 36개월의 유예 기간이 주어졌다. 법안을 위반한 사업자는 최대 3천500만 유로(한화 522억원) 또는 연간 매출의 7%를 벌금으로 부과 받게 된다. 법안 실현을 위해 EU는 지난 3월 AI 사무소를 개설했다. 27개 유럽 회원국의 AI 관련 협력을 이끌고 법안 준수 여부를 모니터링 및 감독할 예정이다. EU 당국은 "AI법 최초 도입은 글로벌 표준을 만들기 위한 중요한 단계"라며 "이미 EU의 일반데이터보호규정(GDPR)은 국제 데이터 규제의 표준으로 작용한 바 있다"고 밝혔다.

2024.08.02 16:54조이환

과기정통부 "금지된AI 규정 명백해야…국가AI센터도 필요"

"인공지능(AI) 발전과 신뢰 조성을 동시에 해야 하는 시대입니다. 관건은 '금지된AI'와 '고위험AI' 규율 대상을 명확히 구분하는 것입니다. 국가AI센터 신설도 이뤄져야 합니다." 과학기술정보통신부 남철기 AI기반정책과 과장은 16일 국회의원회관서 열린 '통일성 있는 AI 정책 추진을 위한 입법 공청회'에서 AI기본법 규정 방향성을 이같이 밝혔다. 남철기 과장은 현재 22대 국회에서 AI 기본법안을 6건 발의한 상태라고 설명했다. 국민의힘에서 3건, 더불어민주당에서 3건씩 발의한 상태다. 남 과장은 "법안 모두 여야 성역 없이 AI 확산과 규제라는 균형을 맞추기 위해 구성됐다"고 설명했다. 그는 이중 AI를 금지된AI와 고위험AI로 규율 대상을 구분하는 법안에 집중해야 한다고 주장했다. 해당 법은 더불어민주당 권칠승 의원이 발의한 법안이다. AI 규율 대상을 금지된AI와 고위험AI로 구분하고, 의무 위반에 대해 벌칙을 규정하는 법이다. 유럽연합(EU) AI기본법이 AI를 특성에 따라 구분한 방식과 비슷하다. 금지된AI란 인간 존엄과 가치, 인류 평화와 안전에 대한 심각한 침해나 위협이 명백한 AI 기술이나 제품을 말한다. 이럴 경우 정부는 해당 AI 개발과 이용을 금지한다. 고위험AI는 인간 생명, 신체 안전 등 기본권 보호에 중대한 영향을 미칠 수 있는 AI이다. 모두 유럽연합(EU)가 AI를 특성에 따라 구분한 방식과 비슷하다. 남 과장은 금지된AI 대상 규정을 신중히 바라봐야 한다고 당부했다. 그는 "국민 안전을 위한 규정에는 동의한다"며 "다만 AI 기본법에서 별도로 규정할 만큼 이 방식이 실익 있는지 판단해야 한다"고 설명했다. 그는 EU를 제외한 국가들도 금지된AI 규정에 대해 조심스럽다는 점을 근거로 제시했다. 남철기 과장은 "EU를 제외한 미국과 영국, 일본 등 주요국도 아직 이 AI 도입 필요성에 대한 논의를 시작하는 단계"라며 "정부가 이에 대한 규정을 굳이 서두를 필요 없을 것"이라고 덧붙였다. 남철기 과장은 고위험AI에 대해서도 언급했다. 그는 "AI 혁신뿐 아니라 포용까지 포함하는 AI 거버넌스 고려가 필요하다"며 고위험AI 필요성을 강조했다. 다만 강력한 규제를 포함한 고위험AI 규정에 대해서도 신중한 고려가 이뤄져야 한다고 설명했다. 그는 "EU조차도 고위험AI에 대한 규제 시행을 2~3년 후로 정한 상태"라며 "국내 정부도 단계적 보완 입법을 통해 글로벌 규범 정합성에 맞춰야 한다"고 설명했다. 그는 마지막으로 국가AI센터 신설도 필요하다고 봤다. 다만 이를 위한 여력이 부족하다고 했다. 남 과장은 "그동안 행정안전부와 기획재정부 등에 국가AI센터 설립 필요성을 지속 제안했다"며 "과기정통부 산하기관 하나 없애면 이를 설립할 수 있다는 답변만 얻은 상태"라며 자금 부족을 언급했다. 남 과장은 "한국은 미국이나 중국처럼 AI를 생산하는 국가"라며 "우수한 AI 기술력과 유연한 AI 기본법 결합으로 AI 선진국이 되길 바란다"고 말했다.

2024.07.16 15:50김미정

EU, 세계 첫 'AI법' 확정…이사회 최종 승인

세계 첫 인공지능(AI) 규제법으로 관심을 모으고 있는 유럽연합(EU)의 AI법이 마침내 최종 확정됐다. 유럽이사회는 21일(현지시간) AI법을 최종 승인했다고 테크크런치를 비롯한 주요 외신들이 일제히 보도했다. 이에 앞서 유럽 의회는 지난 3월 AI법을 압도적인 찬성으로 통과시켰다. 보도에 따르면 유럽이사회는 이날 “AI법은 전 세계 최초 사례로 획기적인 법이다”면서 “앞으로 AI 규제에 관한 글로벌 표준을 만들 수 있을 것이다”고 의미 부여했다. 유럽이사회의 최종 승인을 받은 AI법은 앞으로 관보에 게재되며, 20일이 경과한 후에는 공식 발효된다. ■ 2021년 첫 발효…얼굴인식 기술 사용도 엄격 제한 EU가 처음 AI법을 발의한 것은 지난 2021년이었다. 이후 격렬한 토론 과정을 거친 끝에 2023년 12월 초 유럽의회와 유럽이사회, 유럽연합집행위원회(EC)의 최종 합의안을 이끌어내는 데 성공했다. 당시 EU 주요 기구들은 안면인식 기술 사용 등을 놓고 의견이 팽팽하게 갈렸다. 또 챗GPT나 구글 바드 같은 파운데이션 모델 규제 방법을 놓고도 서로 이해관계가 엇갈려 공방을 벌이기도 했다. 하지만 결국 합의안을 이끌어낸 데 성공하면서 역사적인 AI법의 토대를 마련하게 됐다. EU의 AI법이 본격 적용될 경우 챗GPT 같은 생성 AI 개발 업체에 대해선 투명성 의무가 강화된다. 생성형 AI 기술은 시장에 내놓기 전에 투명성 의무를 준수하도록 의무화했다. 또 '딥페이크' 같은 이미지는 반드시 AI로 생성했다는 사실을 밝히도록 했다. 생성형 AI 관련 조항은 2021년 'AI법'이 처음 발의될 때는 포함되지 않았다. 하지만 이듬 해 챗GPT가 각광을 받으면서 오남용 우려가 확산되자 입법 과정에서 생성 AI 관련 조항들이 추가됐다. 자율주행차 같은 고위험 기술을 사용하는 기업들 역시 데이터를 공개해야만 한다. 이와 함께 안전 강화를 위해 엄격한 테스트를 거치도록 했다. 핵심 쟁점 중 하나였던 얼굴인식 기술 사용도 엄격하게 제한하기로 했다. 이에 따라 테러범 추적이나 국가 안보 같은 꼭 필요한 경우 외에는 얼굴인식 기술을 사용할 수 없도록 했다. 금지 규정을 위반할 경우에는 최대 3천500만 유로(약 500억원) 혹은 세계 매출 7%에 해당하는 벌금을 내야 한다. ■ 회원국 합의 과정에선 몇몇 국가가 강력 반발하기도 지난 2월엔 회원국 합의 과정을 거쳤다. 하지만 이 과정도 순탄치는 않았다. 당시 오스트리아는 데이터 보호 규정에 대해 문제를 제기한 반면 독일과 프랑스는 챗GPT나 바드 같은 선진 AI 모델들이 EU AI 기업들을 무력화할 수 있다고 경고했다. 이탈리아도 시종일관 AI법에 대해 침묵하면서 한 때 합의안 도출에 대한 의구심이 제기되기도 했다. 하지만 EC가 독일, 프랑스, 오스트리아 등이 관심 갖는 부분에 대한 공식 선언을 포함시키기로 하면서 찬성 진영으로 돌아서게 됐다. 이런 과정을 거친 끝에 유럽의회 표결까지 통과한 데 이어 이번에 유럽이사회 승인을 받으면서 마지막 관문을 넘어가게 됐다.

2024.05.21 22:27김익현

뒷전으로 밀린 'AI기본법'…"22일 소집 요구 다시 할 것"

국회에 계류 중인 '인공지능(AI)기본법' 통과에 먹구름이 꼈다. 여야가 21대 국회 임기 종료를 2주 앞두고 합의점을 찾지 못하고 있어서다. 라인 매각 이슈 등이 우선순위로 떠오르면서 AI기본법 자체가 뒷순위로 밀린 실정이다. 14일 국회에 따르면 과학기술정보방송통신위원회(과방위) 여야는 AI 기본법 논의를 위한 전체 회의 일정 합의에 도달하지 못했다. 여야 모두 AI기본법 통과 필요성에 동의하고 있다. 다만 일본 라인야후 사태나 과방위 징계 이슈 등으로 AI 법은 사실상 뒷순위로 밀렸다. 21대 국회가 끝나면 AI기본법은 폐기된다. 22대 국회가 이를 처음부터 논의해야 한다. 이르면 7월부터 진행된다. 해당 법안 통과 시점이 더 늦춰질 수밖에 없다. 현재 21대 과방위에 AI기본법을 비롯한 기업연구소법, 망무임승차방지법, 디지털포용법, 디지털안전서비스법 등 6개 법안 논의가 멈춘 상태다. 그동안 6개 법안 논의 중 AI기본법 통과 여부가 가장 주목받았다. AI기본법 제정이 글로벌 이슈여서다. 현재 각국은 생성형 AI로 인한 딥페이크, 저작권 분쟁, 윤리 이슈 등으로 몸살을 앓고 있다. 이에 전 세계적으로 AI 관련법 제정에 속도를 내고 있다. 유럽연합(EU) 의회는 올해 3월 프랑스 스트라스부르에서 열린 본회의에서 AI법 최종안을 찬성 523표로 가결한 바 있다. 영국과 캐나다도 법률, 의료 등에 AI 기본 원칙을 세워 준수하고 있다. 국내선 AI에 대한 기본적인 법도 없다. 한국 AI기본법은 2021년 7월 더불어민주당 정필모 의원, 국민의힘 윤두현 의원 등이 제출한 7개 법안을 통합한 안건이다. 이 법은 지난해 2월 과방위 법안2소위까지 통과했지만, 여전히 상임위 전체 회의에 계류 중이다. 법안2소위 통과 직후 시민단체가 AI법 핵심인 '우선허용·사후규제' 원칙을 강력히 반대했기 때문이다. 당시 AI주무부처인 과학기술정보통신부는 법안 통과를 위해 시민단체를 설득했으나 긍정적인 성과를 얻지 못했다. 이에 과기정통부는 우선허용·사후규제 원칙 등을 포함해 법안을 수정하기 시작했다. 총선 이후 과기정통부가 AI기본법을 신속히 통과시켜 달라 요청했다. 그러나 과방위 여야가 합의점에 도달하지 못했다. 한 업계 관계자는 "다음 주 '서울 AI 정상회의'가 서울서 열린다"며 "AI기본법 논의를 멈춘 국가에서 AI 안전을 논의하는 게 민망할 정도"라고 했다. "22일 소집요구 다시…제대로 마무리해야" 이런 사태에 더불어민주당 과방위 간사인 조승래 의원은 이달 22일 소집 요구를 한번 더 진행할 예정이라고 밝혔다. 조승래 의원은 14일 국회 과방위 현안 관련 기자회견에서 "여러모로 여당 의원들이 낙천·낙선해 곤란한 것 이해한다"며 "그럼에도 마지막까지 최선을 다했으면 좋겠다"고 밝혔다. 그는 "21대 국회에서 해결해야 할 법안들이 아직 많다"며 "16일 마지막 소집 요구에 응하지 않는다면 22일 한번 더 요구할 예정"이라고 했다. 민주당 이용빈 의원 측도 AI기본법이 정리된 상태지만 속도를 내지 못해 답답한 실정이라고 했다. 이용빈 의원은 "세계 주요국들의 AI 주도권 경쟁이 치열한 상황에서 국내 AI산업 진흥과 생태계 강화를 위한 새로운 법적·제도적 뒷받침이 시급하다"고 강조했다. 이 의원은 "국가 경쟁력 차원에서 AI산업 생태계 지원뿐 아니라 국민 인권을 지키고 안전성이 확보된 AI개발·활용을 골자로 한 AI기본법이 21대 국회 마지막 과제로 마무리되길 바란다"고 했다. 민주당 정필모 의원도 "AI기본법은 반드시 통과해야 한다"고 말했다. 그는 "먼저 과방위 회의가 열려야 하는데, 여야 간 회의 일정 합의부터 봐야 할 것"이라고 주장했다.

2024.05.14 15:36김미정

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

[현장] 배경훈 장관 "AI 인재, 정부 투자 대폭 늘릴 것…대학원 확대 검토"

세계 첫 ‘반고체 배터리’ 전기차, 中서 판매허가 받아

"소비쿠폰 사용도 막았다"…홈플러스 폐점 발표에 노조·종사자 "철회하라"

비트코인 12만3천600달러 돌파...역대 최고가 경신

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.