• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI법'통합검색 결과 입니다. (24건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[기고] EU 데이터법과 인공지능 산업의 발전 방향

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 유럽연합(EU)이 제정하고 실행해 전 세계에 영향을 미치고 있는 많은 법령들이 있다. 개인정보에 관한 강한 보호와 규제를 천명한 일반정보보호규정(GDPR)이 그러하다. 전 세계에서 최초로 입안해 시행했지만 여전히 많은 논란이 제기되고 있는 EU 인공지능(AI)법 역시 전 세계 국가들로부터 반향을 불러일으키고 있다. EU가 이미 관련 법을 제정하고 시행하고 있는 상황에서 우리나라 역시 이에 대한 입법 논의가 이루어지지 않는다면 입법부가 책임을 다하지 않는 것처럼 보일 수 있다. 입법기관 구성원들 역시 마치 아무 일도 하지 않는 사람처럼 비칠 수 있어 무엇이든 조치를 취해야 한다는 압박감을 느낄지도 모른다. 근래의 EU 법안 패키지들 중 시행을 앞두고 있지만 국내에 잘 알려지지 않은 법이 있다. 법의 정식 명칭은 '데이터의 공정한 접근 및 사용에 관한 조화로운 규칙에 관한 규정'이고 줄여서는 EU 데이터법(EU Data Act)라고 부른다. 이 법은 지난해 1월에 제정이 됐고 이로부터 20개월 이후인 올해 9월부터 단계적 시행을 앞두고 있으니 사실 그 시행이 얼마 남지 않은 법이다. 이 법은 EU 내 커넥티드 제품 및 관련 서비스 사용 과정에서 생성되거나 제공되는 정보에 대해 적용된다고 한다. 이용자가 사용하는 것과 관련한 데이터, 이용자의 사용 환경과 관련한 데이터를 수집 및 생성한다. 또 그 정보가 전달할 수 있는 제품의 경우에는 기본적으로 이 법이 적용이 된다. 대부분의 법이 그러하듯 정의 조항을 읽어 봐도 그 내용이 무엇인지를 정확하기 이해하기 어려운 것은 이 법도 마찬가지다. 소위 얘기하는 커넥티드카, 건강 모니터링 기기, 스마트 홈 기기, 스마트폰 등이 이 법의 적용대상이 됨에는 별다른 의문이 없다. 이와 유사하게 서버와 이용자 기기 사이에서 데이터의 교환이 이루어지는 제품과 관련 서비스에 대해서는 모두 적용되므로 그 적용범위가 매우 넓다고 할 수 있다. 이 법은 커넥티드 제품 제조자에게 데이터 접근 중심의 설계를 의무화하고 사용자에게 데이터 제공 관련 정보를 명확하고 이해하기 쉬운 방식으로 안내할 책임을 부과하고 있다. 또 사용자의 요청이 있을 경우 제품이나 관련 서비스에서 생성된 데이터에 대한 접근 권한을 사용자에게 제공해야 하며 데이터 보유자는 사용자가 지정한 제3자와 해당 데이터를 공유할 수 있도록 해야 한다. 이 법은 의무사항을 위반한 경우 제재 수단에 대해 구체적으로 규정하고 있지는 않다. 어쩌면 이 법이 큰 주목을 받지 못하는 것은 이처럼 제재수단에 대해 법 자체에서 규정하고 있지 않기 때문일지도 모르겠다. 그럼에도 불구하고 이 법은 각 회원국에 대해 데이터법 위반자에게 부과할 과징금을 EU 내 연간 매출액 등 여러 요소를 고려해 산정하도록 하는 의무를 부여하고 있다. 이에 따라 이 법을 위반할 경우 매출액을 기준으로 한 과징금이 부과될 것이라는 점에는 큰 의문이 없다. EU 데이터법은 개인정보를 포함한 데이터의 유통을 규율하는 법률인 만큼, 개인정보 유통을 다루는 GDPR과 유사한 규정들이 일부 포함돼 있다. 글로벌 서비스를 제공하는 기업의 입장에서는 GDPR 사례에서처럼 어차피 EU 내 규제를 준수해야 하므로, 커넥티드 제품의 데이터 처리와 관련해서도 EU 데이터법 기준에 맞추어 전 세계 서비스를 동일한 수준으로 확장할 가능성이 충분하다. 과거에는 이용자로부터 수집됐지만 개인정보에 해당하지 않는 데이터의 처리는 이른바 익명정보의 영역으로 간주돼 GDPR의 적용을 받지 않았다. 또 해당 데이터가 저작권법의 보호 대상이거나 그 처리 행위가 부정경쟁행위에 해당하지 않는 이상 별다른 규제가 존재하지 않았다고 볼 수 있다. 반대로 곧 시행되는 EU 데이터법은 데이터의 수집 및 제공에 일정한 의무를 부과함으로써 이제는 이용자로부터 수집하는 데이터에 대해서도 일정한 책임과 준수해야 할 요건이 발생한다는 점을 인식할 필요가 있다. 이에 따라 기존과는 다른 관점에서 데이터 활용에 대한 발상의 전환이 요구된다. AI 산업과 관련해서도 마찬기지이다. EU 이용자로부터 커넥티드 제품을 이용해 데이터를 수집하는 경우에는 비록 개인정보가 아니라 하더라도 EU 데이터법 준수를 항상 명심해야 한다. 이용자로부터 수집한 데이터를 인공지능 서비스 개발을 위한 학습용 데이터로 사용하고자 하는 경우에도 해당 법의 준수를 미리 유의해야 한다. AI 서비스 간의 경쟁이 점점 더 치열해지고 있다. 단순히 산업 내의 문제가 아니라 국가의 생존을 위한 기술패권 다툼의 영역이 되어 가고 있는 상황이다. 이러한 상황에서 EU데이터 법의 제정과 시행이 EU 역내 국가의 경쟁력과 글로벌 시장에 어떠한 영향을 미칠지는 아직 판단하기는 어렵지만 AI를 비롯해 데이터 관련 산업의 경쟁력에 상당한 파급력을 가지게 될 것이다. 산업 보호를 명분으로 제정된 많은 법들이 오히려 기존 사업자들보다 새롭게 시장에 진입하려는 스타트업이나 신생 기업들에게 더 무겁게 작용하는 모습을 우리는 여러 차례 목격해왔다. 우리나라는 적어도 법제 측면에서는 '패스트 팔로워'를 넘어 '퍼스트 무버'로서의 입지를 점차 구축해가고 있으며 실제로 EU 데이터법과 유사한 법제를 이미 보유하고 있다. 이에 따라 산업의 보호와 발전이라는 관점에서 보다 심도 있는 논의가 이루어지고 전략적인 입법 방향이 마련되기를 기대한다.

2025.04.01 15:22법무법인 태평양 강태욱

英, AI로 아동 성적 이미지 생성하면 처벌

영국 정부가 인공지능(AI)으로 아동 성 학대 이미지를 생성하는 행위를 불법으로 규정하기 위한 법안을 발의했다. 3일 BBC 등 외신에 따르면 영국이 전 세계에서 처음으로 AI 성 학대를 법적으로 처벌하기 위한 법적 조치에 나섰다. 해당 법안은 '범죄 및 치안 법안(Crime and Policing Bill)'에 포함된 상태로, 이달 중 국회서 논의될 예정이다. 법 적용 대상은 아동 성 학대 이미지 생성하는 AI 도구 소지자다. 해당 도구로 관련 이미지를 제작하거나 배포, 사용법 안내 행위도 불법이다. 아동 성 학대 콘텐츠 웹사이트를 운영하는 행위도 마찬가지다. 정부는 수사 시 범죄와 관련한 디지털기기 보안 잠금을 임의로 해제할 수 있다. 다수 외신은 온라인 범죄자가 AI로 아동 성 학대 자료를 제작하는 사례가 증가한 가운데 영국 정부가 나선 것으로 분석하고 있다. 인터넷워치재단에 따르면 지난해 관련 이미지 보고 수치가 작년보다 5배 증가한 것으로 나타났다. 그동안 전 세계에서 아동이 노골적인 모습으로 등장하는 콘텐츠 제작·배포가 금지였다. 다만 AI를 통해 해당 콘텐츠를 생성할 때 구체적인 법 적용이 어려웠다. 이에 영국 정부는 AI로 아동 성 착취 콘텐츠를 만든 제작자에게도 명확한 처벌을 내리기 위해 나선 것이다. 예벳 쿠퍼 영국 내무장관은 "온라인뿐 아니라 오프라인에서도 아동 성 학대를 근절하는 것이 사이버 범죄로부터 대중을 강력히 보호할 방법"이라고 말했다.

2025.02.03 10:16김미정

EU, AI법 위반시 최대 '매출 7% 벌금'...기업들 비상

가트너(Gartner)가 발표한 'EU AI법 준비를 위한 1단계: 발견과 목록화' 보고서에 따르면, 2024년 말부터 단계적으로 시행되는 EU AI법이 기업들에게 막대한 재정적 리스크를 안길 것으로 전망된다. EU AI법의 단계별 시행 일정 공개 EU AI법은 2025년 2월부터 단계적으로 시행된다. 첫 단계로 2025년 2월부터 금지된 AI 시스템에 대한 규제가 시작되며, 2025년 8월부터는 범용 AI와 처벌 규정이 적용된다. 2026년 8월에는 대부분의 규정이 시행되고, 최종적으로 2027년 8월에는 Article 6.1과 Annex II에 해당하는 규정이 시행된다. 이러한 단계적 접근은 기업들이 충분한 준비 기간을 가질 수 있도록 설계되었다. AI 위험도별 규제 체계 상세 공개 EU AI법은 AI 시스템을 위험도에 따라 세 가지 범주로 분류한다. '금지된 AI'는 사용자의 자유의지를 침해하거나 '사회적 점수 매기기'에 사용되는 시스템으로, 법 집행 목적 등 극히 제한적인 예외를 제외하고는 전면 금지된다. '고위험 AI'는 인간에게 영향을 미치는 대부분의 AI 기술이 해당되며, 엄격한 요구사항을 준수해야 한다. '저위험 AI'는 AI 기반 추천 시스템이나 스팸 및 바이러스 필터 등이 포함되며, 재고 관리나 문서화 등 비교적 가벼운 요구사항이 적용된다. AI 도입 유형 분류와 대응 전략 가트너는 기업의 AI 도입을 네 가지 유형으로 분류했다. 첫째는 '와일드 AI'로, 직원들이 업무를 위해 공개된 AI 도구를 사용하는 경우다. 둘째는 '임베디드 AI'로, 기업이 사용하는 솔루션에 내장된 AI 기능을 의미한다. 셋째는 '하이브리드 AI'로, 기성 AI 모델과 기업 데이터를 결합한 형태이며, 마지막으로 '인하우스 AI'는 기업이 자체적으로 개발한 AI 시스템을 말한다. EU AI법의 추가 규제 요구사항 EU AI법은 특정 AI 기반 애플리케이션에 대해 위험성 평가, 투명성 의무, EU 전역 데이터베이스 등록을 요구한다. 특히 시스템적 위험을 수반하는 최고 성능의 범용 AI에는 추가적인 의무 요구사항이 적용된다. 기업들은 이러한 요구사항을 준수하기 위해 자사의 AI 시스템을 철저히 점검하고 필요한 조치를 취해야 한다. 기업의 실질적 대응 방안 가트너는 기업의 효과적인 AI 시스템 관리를 위해 구체적인 실행 방안을 제시했다. 우선 기업 아키텍처, 제3자 리스크 관리, 변경 관리, 조달 프로세스를 적절히 수정하여 새로운 AI 기능과 서비스의 도입을 지속적으로 모니터링해야 한다. 완벽한 발견보다는 점진적인 진행이 중요하며, 일반개인정보보호법(GDPR) 준수를 위해 작성된 처리활동기록(RoPA)과 개인정보영향평가(PIA)를 활용하면 발견 및 목록화 과정을 상당히 단축할 수 있다. AI 시스템 카탈로그화를 위한 구체적 행동 지침 기업들은 각 AI 시스템에 대해 상세한 정보를 수집하고 문서화해야 한다. 시스템명, 처리하는 개인정보의 종류(특히 인종, 민족, 정치적 성향, 성별, 성적 지향, 종교적 신념, 노조 가입 여부, 유전자, 생체인식, 건강 데이터 등 민감정보), 처리 목적, 관련 업무 프로세스, 벤더 정보, 개인정보 처리의 법적 근거 등을 포함해야 한다. 가트너는 데이터 중심의 접근을 권장하며, 특히 민감한 개인정보를 처리하는 인사나 마케팅 부서의 AI 시스템을 우선적으로 점검할 것을 조언했다. EU 법률 체계와의 연관성 EU AI법은 기존의 다양한 EU 법률과 연계돼 있다. 기계류 지침, 장난감 안전 지침, 의료기기 규정, 민간항공보안 규정 등 17개 이상의 EU 법률이 AI법과 직접적으로 연관되어 있다. 이러한 기존 EU 법률의 적용을 받는 AI 시스템은 대부분 고위험 AI로 분류될 가능성이 높다. 따라서 기업들은 자사의 AI 시스템이 이러한 법률과 관련이 있는지 세심하게 검토해야 한다. ■ 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다.

2025.01.18 17:28AI 에디터

고려대 법학전문대학원, 데이터·AI법 전문과정 개설

고려대학교 데이터인공지능법 연구센터가 3기 '데이터 인공지능법 전문과정'을 개설한다고 7일 밝혔다. 고려대 법학전문대학원은 변호사 양성의 로스쿨 교육 외에 현대의 전문적인 다양한 주제에 대해 공개강좌(ESEL)를 운영해 관련 분야 종사자들을 재교육하고 있다. 이에 따라 개설된 전문과정이다. 디지털 기술 혁신으로 인해 데이터의 사회적 산업적 가치가 제 분야에서 인정되고 있으며 생성형 인공지능, 디지털 플랫폼 등 데이터의 활용에 따른 다양한 법적 사회적 문제가 전세계적으로 제기되고 있다. 특히 생성형 인공지능 기술은 기업과 개인에게 일상화가 이뤄지고 있으며 이에 따른 법적, 정책적 논의가 본격화되고 있다. 데이터 인공지능법 전문과정은 디지털 대전환에서 비롯하는 복잡다기한 법적 과제와 문제에 대해 강의 및 토론하는 강좌를 제공한다. 국가와 공공기관, 로펌, 사기업체 등 사회 각 분야에서 데이터와 인공지능 등에 관한 업무를 담당하는 공무원, 공공기관 및 사기업의 임직원, 변호사 등이 대상이다. 국내 최고의 데이터, 인공지능 전문가들이 강사진으로 참여하며 2기와 마찬가지로 1년 과정으로 개설돼 내실 있는 교과과정 운영과 원우 간 교류의 기회를 확대할 계획이다. 4월부터 11월까지 19주 35개 강좌와 워크샵, 공개세미나로 구성될 예정이다. 이 과정을 수료하는 경우 고려대 총장 명의의 수료증이 수여되고 고려대 총교우회 정회원 자격도 부여된다. 이성엽 주임 교수는 “지난해 12월 한국이 EU에 이어 세계 2번째로 인공지능기본법을 통과시켰고 1년 뒤 시행을 앞둔 상황에서 국내외 AI, 데이터법의 쟁점에 대한 강의와 토론을 통해 하위 법령 제정이나 기업의 인공지능법 대응에 도움을 줄 것으로 기대한다”고 말했다. 원서접수는 2월1일부터 2월28일까지다.

2025.01.07 13:46박수형

이해민 의원, 'AI신호등법' 발의...AI 사회적 영향력 주목

국회 과학기술정보방송통신위원회 소속 이해민 의원(조국혁신당)은 인공지능 기술의 건전한 발전과 안전한 활용을 위한 인공지능산업 진흥 및 인공지능 이용 등에 관한 법률을 대표발의 했다고 12일 밝혔다. 법안은 AI 기술의 혁신을 지원하면서도 그 영향력을 고려한 적절한 관리체계 구축이 목표다. AI 산업의 진흥을 촉진하면서 동시에 안전성과 윤리성을 확보할 수 있는 균형 잡힌 제도적 기반을 마련했으며 특히 인간 중심 AI 사회 구현을 위해 기술발전과 윤리적 가치의 조화를 강조했다. 이 법안의 가장 주요한 특징은 AI를 단순한 기술이나 위험요소가 아닌 사회적 영향력을 지닌 시스템으로 보는 것이다. 이같은 관점에서 고영향 인공지능을 “사람의 생명, 신체, 건강과 안전, 기본권의 보호, 국가안보 및 공공복리 등에 중대하거나 회복하기 어려운 영향을 미칠 우려가 있는” 경우로 포괄적으로 정의했다. 위험성 중심 규제에서 벗어나 AI 기술의 사회적 영향력에 걸맞은 책임과 관리체계를 구축하려는 시도다. 법안은 또 AI 생태계의 다양한 이해관계자들을 체계적으로 정의했다. AI 개발사업자와 이용사업자를 구분하고, 특히 AI 시스템으로부터 직간접적 영향을 받는 '영향받는 자' 개념을 새롭게 도입했다. 이용자 권익 보호를 위한 제도적 장치도 마련했다. 이는 AI 기술이 개발자나 직접적 이용자를 넘어 사회 전반에 미치는 파급효과를 법제도적으로 인정한 최초의 시도로서 이용자 권익 보호를 위한 포괄적인 제도적 장치를 마련했다는 데 의의가 있다. AI 산업 발전을 위한 규제특례와 지원책도 함께 담았다. 신기술 검증을 위한 실증특례와 임시허가 제도를 통해 새로운 AI 기술과 서비스의 신속한 시장 진입을 지원할 예정이다. AI 기술의 발전과 그 사회적 영향력 관리를 동시에 추구하는 법안의 기본 철학을 반영한 것이다. 이해민 의원은 “현재 AI 산업은 신호등 없는 강남역 사거리를 질주하고 있는 상황”이라며 “이번에 발의한 인공지능법이 제대로 된 혁신과 올바른 이용을 위한 일종의 신호등 역할을 해줄 것을 기대하며 AI 신호등 법이라는 이름을 붙였다”고 설명했다. 이어, “AI는 이제 단순한 기술이 아닌 우리 사회를 근본적으로 변화시키는 동력”이라며 “이번 법안은 AI 가 가진 혁신의 잠재력을 극대화하면서도 그 과정에서 소외될 수 있는 사회 구성원들의 권익을 보호하는 새로운 균형점을 제시하고자 했다”고 강조했다.

2024.11.12 15:13박수형

"삼성과 AI 격차 더 벌어지나"…애플, EU AI법 '자발적 준수 협약' 불참할까

애플이 삼성전자와 구글, 아마존 등이 동참키로 한 유럽연합(EU)의 인공지능(AI)법 준수를 위한 '자발적 협약'에 참여할 지 관심이 쏠린다. 애플은 아직 동참 의사를 밝히지 않은 상태로, 최근 EU 집행위와 경쟁법 위반 등으로 갈등을 빚고 있기 때문이란 분석이 나온다. 22일 업계에 따르면 삼성전자는 다음주께 공식화하는 EU 집행위원회 주도 'AI 협약(AI Pact)'에 참여한다. 이번 협약식은 참여 기업 관계자들이 참석한 가운데 오는 25일 벨기에 브뤼셀 집행위 본부에서 열린다. AI 협약은 업계가 EU의 'AI 법'이 본격 시행되기 전 유예기간에도 안전하고 투명한 AI 사용을 위해 노력하겠다는 자발적 서약이다. EU의 AI법은 세계 최초의 포괄적 AI 규제로, AI 기술을 접목한 제품이 EU 시장에 출시되는 과정에 적용되는 규칙이다. 집행위는 AI법이 지난 8월 발효됐지만 고위험 AI 규제 등 대부분 규정이 전면 시행되기까지는 시간이 걸릴 것으로 보여 그간 기업들을 대상으로 협약 참여를 독려해왔다. 현재까지 참여 의사를 밝힌 곳은 삼성전자 외에 구글, 아마존, 마이크로소프트(MS) 등 100여 개 IT 업체인 것으로 알려졌다. 반면 최근 EU 규제당국과 각을 세우고 있는 애플은 여전히 동참 의사를 밝히지 않았다. EU 집행위가 올 초 발효된 유럽 디지털시장법(DMA) 상 명시된 '상호운용성'을 지키기 위해 애플의 핵심 전략인 '폐쇄적 생태계'를 개방하라고 연일 압박하고 있는 것이 영향을 준 것으로 분석된다. 집행위는 최근 아이폰에서 삼성전자 갤럭시워치 등 타사 스마트 기기와 연결성을 높이지 않으면 천문학적 벌금을 물리겠다고 경고한 바 있다. AI 협약에 따르면 참여 기업은 '고위험' AI 기술로 분류될 만한 자사 시스템을 사전 점검한다. 또 AI법 준수를 위한 조직 내 AI 거버넌스 전략 수립 등이 요구되며 12개월 뒤 집행위에 진행 경과를 공유해야 한다. EU의 AI법은 특정 제품이나 분야에서 AI 기술을 활용할 때 발생할 수 있는 위험 정도에 따라 4단계로 나눠 차등 규제가 이뤄진다. 우선 인간의 기본적 권리를 침해할 가능성이 있는 AI 기술 활용은 원천 금지된다. 또 챗GPT를 비롯한 범용 AI(AGI)에 대해서는 AI 학습과정에 사용된 콘텐츠를 명시해야 하는 등 투명성 의무도 주어진다. 일부 규정부터 순차 적용되며 2026년 8월부터 전면 시행된다. AI 기술 관련 잘못된 정보를 제공하는 경우 전 세계 연 매출의 1.5%를, 의무 규정 위반 시 3%의 과징금이 각각 부과될 수 있다. 업계에선 이번 일로 삼성전자가 일종의 'AI법 적응 기간'을 가질 수 있게 됐다는 점에서 적절한 결정이라고 평가했다. 업계 관계자는 "삼성전자는 주요 제품에 AI 기술을 광범위하게 활용하고 있다"며 "이번 협약 동참을 통해 EU에 법 준수 의지를 부각하는 전략적 효과도 어느 정도 누릴 수 있을 것으로 보인다"고 봤다.

2024.09.22 18:14장유미

오픈AI 'o1'로 AGI 시대 성큼…"정부·기업, 개발 투명성 고려 필수"

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개하면서 일반인공지능(AGI) 시대를 향해 한 걸음 더 나아갔다는 평가를 받는다. 이달 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 o1 프리퓨 버전과 미니 버전을 블로그를 통해 공개했다. 이 모델 시리즈는 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제를 해결할 수 있다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. AI 업계가 고도화된 기술을 쏟아내고 있는 만큼 중요하게 부각되는 부분도 생겼다. 바로 AI 규제다. 현재 미국은 캘리포니아 AI 안전법을 통과시켜 개발 투명성과 안전성 부각에 나섰다. 유럽연합(EU)은 물론이고 캐나다와 영국, 일본도 마찬가지다. 이에 발맞춰 국내서도 최소한의 투명성 관련 규제가 필요하다는 의견이 나오고 있다. AGI 시대로 다가갈수록 AI 기반 솔루션과 결과물이 예측 불가하다는 이유에서다. 법무법인 태평양 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 고도화된 AI 시스템이 산업계에 안착하기 위해 필요한 법안에 대해 이야기 나눴다. 생성형 AI와 관련한 딥페이크, 저작권 문제, 근로 환경 등 이슈에 대한 의견도 공유했다. 법무법인 태평양은 AI팀 활동을 올해 초 본격화했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. Q. 지난주 오픈AI가 사람처럼 추론할 수 있는 고급 모델을 내놨다. 산업계가 AI 시스템 고도화를 신속히 진행하고 있다. 이럴수록 AI 규제 필요성이 더 높아지지 않을까. 윤: 그동안 기업이 AI 시스템 고도화를 위한 기술을 꾸준히 내놨다. 앞으로 기존 개발 틀을 벗어나진 않을 것 같다. 다만 고도화된 AI 시스템으로 무엇을 만들지 아무도 예측할 수 없다. 결국 AGI 등 고도화된 AI 시스템이 산업에 안착하려면 최소한 규제는 필요할 것이다. 이중 개발 투명성이 가장 중요하다. 정부가 개발자나 AI를 사용하는 기업에 데이터 사용 방식이나 모델 알고리즘에 대해 질문을 요구할 수 있는 규제가 필요하다. 다만 AI 산업이 어느 정도 성장한 단계에서 해당 규제를 추진해야 할 것이다. Q. 기업이 정부에게 AI 기술을 의무로 공개하는 법 정도로 이해하면 되는 건가. 조금 더 구체적으로 설명해 달라. 윤: AGI는 지금보다 훨씬 더 고도화된 AI 시스템이다. 그동안 전문가들은 AI 모델에서 파생되는 새 기술을 예측할 수 있었다. 반면 고도화된 AI 시스템이 출현하면, 예측할 수 없다. 기술 불확실성이 커진다는 의미다. 정부는 AI의 불확실성과 그로 인한 잠재적 위험을 관리하기 위한 최소한의 조치 정도로만 규제를 설정하면 된다. 개발자나 기업이 AGI로 특정 결정을 내릴 때 그 결정 과정이나 근거를 정부에 설명하거나 공개할 수 있는 체계다. 정부는 향후 이런 법안을 입법에 넣어야 한다. 이보다 더 강력한 규제는 삼가야 한다. 오히려 기술 중립성을 해칠 수 있다. Q. 현재 국내에선 현존 AI 기술로 인한 이슈가 많다. 딥페이크가 대표적이다. 정부가 딥페이크 피해 방지를 위해 여러 법안 제정을 추진 중이다. 충분히 피해를 최소화할 수 있을 것으로 보는가. 강: 방송통신위원회가 제정을 추진 중인 이용자보호법에는 딥페이크 피해 방지를 위해 AI로 생성된 콘텐츠에 AI 생성물 표시를 의무화하는 법 등을 도입할 것으로 보인다. 그러나 표시 의무 규정 법안만으로 문제를 완벽히 해결할 수 없다. 딥페이크 영상물에 AI 생성물 표시 의무를 부과하면, 일차적으로 허위 정보 확산을 방지하고 제작자·유포자에게 책임은 물을 순 있다. 그러나 딥페이크 제작자나 유포자의 거짓 고지 가능성이 있다. 이용자보호법이 문제 해결에 실효성있게 작동하려면 정부는 지금보다 디테일한 집쟁 정책을 운영해야 한다. Q. 최근 미국 캘리포니아주가 AI 안전법 'SB 1047'을 통과시켰다. 거대 AI 모델에 대한 강력한 규제를 담고 있는 법안이다. 일각에선 SB 1047이 책임소재와 범위가 과도하다는 지적이 나오고 있다. 이를 어떻게 평가하는지. 강: 해당 법안에는 AI로 인한 핵심 피해 방지를 위한 안전 평가 관련 내용과 AI 모델 개발자들에 대한 독립적 제3기관에 의한 감사, 보고의무, 학습을 포함한 AI 모델 기능을 중단시키는 전제 중단 기능 구현, 공공 안전 위협에 대한 징벌적 손해배상 등 내용을 담고 있다. AI가 가져올 위험을 통제할 수 있는 장치가 필요하다는 점에 대해서는 공감한다. 다만 이런 강력한 규제는 이미 기술·산업적으로 최정점에 서 있는 국가에서나 효율적일 수 있다고 본다. 오히려 시장에 진입하고자 하는 해외 경쟁업체들에 진입장벽으로 기능할 수도 있다. Q. 해당 법이 최종 승인되면 다른 나라 AI법에도 영향 미칠 전망이다. 국내 정부도 SB 1047과 노선을 같이할 수 있는 법안을 마련할 것으로 보는가. 강: 현재 과학기술정보통신부에서 제정을 추진하고 있는 AI 기본법은 AI 산업 진흥에 관한 법률이다. AI 시스템 규제에 초점을 맞추고 있는 법은 아니다. SB 1047처럼 AI 안전 평가, 제3자에 의한 감사·보고 의무 같은 강력한 규제 사항들이 포함되지 않을 가능성이 있다. 정부가 AI 관련 제도를 마련하는 과정에서 EU나 미국 등의 AI 관련 규제 정책 사례를 참고할 수는 있다. 다만 국내 AI 산업은 아직 성장단계에 있다. 과도한 규제가 가해질 경우 산업 자체가 위축될 수 있다는 점 고려해야 한다. 이후 고도화된 AI 시스템 대비를 위해 개발 투명성 등 적절한 규제를 추가하면 된다. Q. 저작권 이슈도 생성형 AI 산업서 많이 거론되는 주제다. 기업 노력만으로 해결할 수 있는 문제가 아니라는 평가가 이어지고 있다. 윤: 그렇다. 그동안 학습용 데이터를 무료로 이용하는 행위에 관대한 분위기였다. 챗GPT 출현 후 저작권 이슈가 나오고, 지난해 하반기부터 소송이 이어지면서 분위기가 달라졌다. 데이터 활용이 유료로 전환될 필요가 있다는 목소리가 나와서다. 이미 데이터 학습을 AI 모델에 충분히 진행한 업체나 대기업은 이에 동의하는 입장이다. 저작권 이슈는 생성형 AI 산업계와 저작권 관련 업계가 공감대를 형성해야 한다고 본다. 이는 법 마련보다 더 시급한 과제다. 지난해 저작권위원회와 문화체육관광부가 생성형 AI 저작권법 제정에 나선 바 있다. 안타깝게도 결과가 잘 안 나왔다. 당시 양측 공감대가 없었기 때문이라고 본다. 지난해 국회도 저작권법 논의 때 해결 주제를 이야기하긴 했다. 아직 마침표를 찍지 못했다. 정부가 나서서 속도감 있게 생성형 AI 산업계와 저작권 관계자 등으로부터 의견을 충분히 모으는 역할을 해야 할 것 같다. Q. 생성형 AI가 산업에 도입되면 근로 환경도 변할 것이란 전망이 나오고 있다. 기업이 직원을 AI로 대체하는 과정에서 법률적 문제를 겪을 것으로 보인다. 윤: 단정 짓기 어려운 문제다. 국내에 AI와 근로법이 충돌한 사례가 아직 없기도 하다. 다만 기업이 신규 채용을 줄이는 방식을 가장 합리적인 선택으로 볼 것 같다. 이 부분에서도 정부 역할은 필요하다. 기업이 신규 채용을 너무 줄이면 정부가 정책을 통해 관리를 해야 한다. 기업과 근로자 공감대 형성도 도와야 할 것이다. Q. 이슈를 종합해 볼 때 앞으로 AI 윤리 중요성이 높아질 것 같다. 최근 기업들이 사내에 AI 윤리위원회를 설치해 AI 개발·활용에 지켜야 할 수칙을 정하는 추세다. 올바른 방향으로 가고 있다고 보는가. 강: 최근 대기업 중심으로 AI 거버넌스를 추진 중인 걸로 알고 있다. AI를 개발·활용할 때 지켜야 하는 원칙 틀을 만드는 추세다. 이런 원칙은 국내에서 한 10개쯤 나와 있다. 문제는 원칙에 디테일이 부족하다는 점이다. 사실 이런 건 법률가들이 잘할 수 있는 업무다. 현재 법률 지식과 기업 사정에 가장 알맞은 디테일을 만들어야 해서다. 그렇지 않으면 거버넌스를 만들어도 AI 이용·개발에 충분히 적용할 수 없을 것이다. Q. 국내 기업이 AI 윤리위원회 설치를 활성화하려면 무엇이 필요한가. 강: 모든 기업이 AI 윤리위원회 필요성을 알고 있다. 다만 위원회만 만들고 끝나는 게 아니라, 실제 회사 내에서 높은 수준의 중요성을 가져야 한다. 이사회 의장 또는 최고경영자가 이를 정말 중요하게 생각해야 한다. 이들이 위원회를 지지해야 결정권도 가질 수 있어서다.

2024.09.18 13:19김미정

[현장] AI 기본법 제정, 정부·시민사회 '맞손'

인공지능(AI) 기본법 제정의 필요성과 방향을 논의하기 위해 국회 과학기술정보통신위원회와 시민단체가 손을 맞댔다. 더불어민주당 최민희 의원이 12일 국회에서 시민기술네트워크가 함께 주최한 '시민참여 AI 기본법 추진을 위한 쟁점 토론회'에는 정치인·산업계·정부·시민사회가 참석해 AI 법안 제정에 대한 다양한 의견을 나눴다. 특히 과기정통위 소속 의원 대다수가 참석해 기본법 제정의 필요성을 촉구했다. 첫 번째 발제를 진행한 영국 사회혁신연구소 '스프레드아이'의 김정원 대표는 유럽연합(EU)의 AI 기본법에 대해 소개하며 그 핵심 쟁점과 사회적 영향에 대해 논했다. 김 대표는 "EU는 지난 2018년부터 AI 법안에 대한 논의를 시작해 올해 최종안을 발표했다"며 "AI 사용 시 발생할 수 있는 인권 침해를 방지하기 위해 신중한 법안 구성을 추구하고 있다"고 밝혔다. 김 대표에 따르면 AI 기본법의 가장 핵심적인 쟁점은 고위험 AI에 대한 규제와 적합성 평가다. 현재 AI법에 의하면 표준화 기구가 규제를 주로 담당하고 있기 때문이다. 이 기구들은 주로 산업 안전을 담당해 왔다. 그는 "EU가 인권 보호에 초점을 맞췄음에도 평가기준이 이에 대해 충분히 반영되지 못하고 있다"라며 "표준화 기구들이 주로 산업 안전에만 집중하기 때문에 인권 보호가 소홀해질 수 있다"고 밝혔다. 이어서 발제를 맡은 법무법인 혁신의 박지환 변호사는 21대 국회 이후 AI 기본법 국회 입법안의 발의 과정을 설명했다. 박 변호사는 "21대 국회에서 발의된 AI 관련 법안들은 9건이었지만 이는 결국 회의 종료 이후 폐기됐다"며 "이번 22대 국회에서도 이미 10건이 발의되는 등 법안 제정을 위한 논의가 진행 중"이라고 설명했다. 그러면서 "국가 인권위원회에서는 우선 허용, 사후 규제 원칙 원칙을 삭제하라고 권고했다"며 "고위험 인공지능에 대한 규제가 앞으로도 핵심 쟁점이 될 것"이라고 주장했다. 이날 행사에는 과기정통위 소속의 더불어민주당의 김현 의원, 정동영 의원, 조인철 의원, 한민수 의원, 이훈기 의원, 황정아 의원, 노종면 의원, 이정헌 의원과 국민의힘 최형두 의원, 개혁신당 이준석 의원, 조국혁신당 이해민 의원이 참가해 의견을 나눴다. 이준석 개혁신당 의원은 정치권의 AI에 대한 접근 방식에 우려를 표하며 올바른 기술 활용의 필요성을 강조했다 이 의원은 "'챗GPT'와 같은 생성형 AI 등장 후 기술에 대한 관심이 높아졌다"며 "동시에 정치인들은 AI와 관련된 버즈워드에만 집착하는 상황"이라고 밝혔다. 그러면서 "명확한 가이드라인이 없다면 AI 발전이 오히려 국가에 위험을 초래할 수 있다"고 경고했다. 행사를 공동 주최한 최민희 더불어민주당 의원은 행사의 의미와 AI 법안 통과의 긴급성을 강조했다. 최 의원은 "지난 달부터 준비를 시작해 이번 달 빠르게 토론회를 개최했다"며 "앞으로도 법의 조속한 통과를 위해 시민사회의 의견을 바로 반영하겠다"고 밝혔다. 이번 토론회는 좌장인 이원태 아주대 교수의 진행 아래 하정우 네이버클라우드 AI 소장, 남철기 과학기술정보통신부 과장, 오병일 진보네트워크센터 대표 등 다양한 전문가들이 참여해 AI 법안에 대한 의견을 나눴다. 좌장인 이원태 아주대 교수는 "AI 기본법은 사회 전반에 걸친 중요한 문제"라며 "이번 토론회를 통해 다양한 이해관계자의 의견을 반영할 수 있게 되길 바란다"고 밝혔다.

2024.09.12 18:01조이환

이훈기 의원, 인공지능법 제정안 대표 발의..."산업 발전과 규제 균형"

국회 과학기술정보방송통신위원회 이훈기 의원(더불어민주당)은 12일 인공지능의 발전과 규제의 균형을 맞춘 '인공지능의 발전과 안전성 확보 등에 관한 법률안'을 대표발의 했다고 밝혔다. 법안은 인공지능에 대한 윤리와 신뢰성 확보를 위해 고위험 인공지능 사업자의 책무를 마련하고 '인공지능 영향평가' 규정을 포함시켰다. 영향평가는 인공지능 사업자가 사전에 인공지능 서비스가 기본권에 미치는 사회적 파급효과를 고려하도록 한 것으로, 공공기관 등이 채용이나 공공서비스를 위해 인공지능을 사용할 때 인공지능 영향평가가 완료된 서비스를 우선 이용하도록 한 것이 특징이다. 법안의 주요 내용은 크게 ▲고위험 영역 인공지능 규율 ▲인공지능 위원회 구성 및 운영 ▲인공지능 영향평가 ▲생성형 인공지능 결과물 표시 등이다. 구체적으로 범죄 관련 생체정보, 채용과 대출 등 중대한 개인 권리와 관련된 사항을 고위험 영역 인공지능으로 규율하고, 민간이 과반을 차지하는 민관 합동 인공지능 위원회를 두고 위원회에서 인공지능 기본계획을 심의 의결토록 했다. 또 인공지능에 대한 윤리와 신뢰성 확보를 위해 고위험 인공지능 사업자의 책무 등을 '인공지능 영향평가' 규정에 포함하고 최근 인권 침해를 유발하는 딥페이크를 비롯한 챗GPT 등 생성형 인공지능이 만들어내는 결과물에 생성형 인공지능 결과물이라는 표시를 의무화하도록 했다. 이훈기 의원은 “고위험 인공지능이 우리 국민의 기본권에 미치는 영향이 큰 만큼 별도의 '인공지능 영향평가'를 통해 인공지능 서비스가 사전에 국민 기본권에 미치는 영향을 평가하도록 했다”며 “제정법안 통해 인공지능 발전과 규제가 조화를 이루고 국민 안전을 우선으로 하는 인공지능 기본법 논의가 시작되길 기대한다”고 말했다.

2024.09.12 12:25박수형

[현장] "챗GPT 시대 맞는 AI법 필요"…국회, AI 규제 관련 논의

"지난 21대 국회에서 인공지능(AI) 법을 만들려고 했으나 법제화의 현실이 챗GPT 이전 수준에 머물러 있었습니다. 생성형AI가 나오고 있는 상황에서 알파고 입장에서 법제를 만들면 안되잖아요. 탄탄한 토대 하에 법을 만들기 위해 이번 간담회를 열었습니다." 더불어민주당 조승래 국회의원은 4일 국회 제4간담회실에서 '인공지능(AI)과 디지털 전환(DX)의 미래 정책 방향' 간담회에서 제대로 된 AI 기본법이 필요하다고 말했다. 이번 간담회에서는 AI 기술 확산에 따른 사회경제적 영향과 AI 법제화의 방향에 대해 발표가 이뤄졌다. 조 의원은 "AI는 몇 년 전부터 깊숙하게 들어와 있는 주제지만 국회의 시각은 알파고에 멈춰 있는 것 아닌가라는 의문 들었다"라며 "기술이 합의보다 먼저 가버리는 시기지만 합의가 먼저 이뤄지지 않으면 자칫 속박으로 작용할 수도 있다"고 우려했다. 한국지능정보사회진흥원(NIA) 이용진 AI 정책 본부장은 "과기정통부에 따르면 AI가 성공적으로 도입될 경우 연간 300조원 이상의 경제 효과가 있다"며 "2026년까지 123조원에 가까운 매출 증가와 약 187조원의 비용 절감 효과가 있을 수 있다"고 강조했다. 특히 제조업에선 약 24조원의 매출 상승, 54조원의 비용 절감 효과가 있을 수 있을 수 있다며 산업별로 허들을 정확히 파악해 규제를 만드는 것이 매우 중요하다고 덧붙였다. 이번 간담회는 과학기술정보통신부 후원으로 조 의원과 국민의힘 최형두 국회의원을 포함해 박영선 전 중소벤처기업부 장관, 과기정통부 류제명 네트워크정책실장, 조국혁신당 강경숙 국회의원 등이 참석했다. 이어진 발표에서 법무법인 광장 고환경 변호사는 일본, 미국에 비해 한국은 내세울 수 있는 AI 기술 기업이나 유니콘 기업이 없는 것이 현실이라며 학습데이터나 관리 체계 투자 측면에서 한국이 약점을 갖고 있다고 말했다. 고 변호사는 "AI 기술에 대해서는 대규모 자본 투자가 불가피하기 때문에 규제 불확실성을 빨리 해결해줘야 한다"며 "AI 안전연구소 설치와 관련해서도 실증적 테스트를 통해서 위험에 대해 어느 정도 대처해야 하는지 연구가 적극적으로 이뤄져야 할 필요가 있다"고 언급했다. 고 변호사는 거버넌스를 통해 일관된 정책과 AI와 관련한 최소한도의 예측 가능성을 제시하는 것이 필요하다며 자율규제 방안 마련을 중심으로 최소한의 규제만을 담은 입법 검토가 절실하다고 발언했다. 고 변호사는 앤드류 응 교수의 발언을 인용해 "EU AI 법은 제대로 존재한 적 없는 AI 리스크에 대한 강도 높은 규제를 표하고 있다"며 "이는 시장 뿐 아니라 규제 실패까지도 우려되는 상황"이라고 비판했다. 이어 "EU AI 법의 과징금 부담이 매우 크기 때문에 애플, 메타 등 빅테크가 AI 서비스 출시를 보류했다"며 "소비자들의 AI 서비스가 크게 제한될 조짐이 있다"고 아쉬움을 표했다. 이어진 토론에서 법무법인 세종 장준영 AI 센터장은 "규제적 측면에선 유럽을 참고하고 기술적 측면에선 미국을 참고할 필요가 있다"며 "우리나라는 유럽과 미국 사이에서 어떤 스탠스를 취해야 하는지 균형점을 잘 도출해야 한다"고 강조했다. 또 "AI는 정보처리 기술이 발전해 오며 나타난 데이터 처리 기술의 화룡점정"이라며 "해외의 AI 법을 참고하는 것도 좋지만 우리나라에서 여태 동안 해왔던 데이터 활성화 관련 법안들을 계승하는 AI 기본법이 만들어지길 바란다"고 기대했다. 류 실장은 "지난 3일 과방위에서 늦더라도 AI 기본법 관련해서 제대로 된 논의와 공청회를 한 번 거치고 가면 좋겠다는 의견이 있었다"며 "정책들이 추진되고 예산이 투입되려면 법적 근거가 필요한 만큼 국회가 신뢰할 수 있는 AI를 만들기 위한 법적 근거를 신속히 만들어 주길 바란다"고 말했다.

2024.09.04 16:50양정민

"韓, 무조건 EU·미국 AI법 따르면 안 돼…AI 법률 정의 필요"

"인공지능(AI) 기본법을 효율적으로 구축하려면 유럽연합(EU)과 미국처럼 AI에 대한 법률적 개념부터 정확히 설정해야 합니다. AI 정의부터 법 적용 범위, 규제 강도 등 틀부터 만드는 것이 급선무입니다. 그래야 EU와 미국식 AI법에 휘둘리지 않습니다." 20일 법무법인 세종 장준영 AI센터장 겸 변호사는 한국데이터법정책학회가 한국프레스센터에서 개최한 'AI 규제법의 국내외 동향 분석·평가와 향후 과제' AI 윤리법제포럼에서 이같이 밝혔다. 장준영 변호사는 과학기술정보통신부에서 AI 입법 자문을 수행 중이다. 장 변호사는 현재 정부가 한국형 AI 생태계 구축에 중요한 첫 발을 내딛었다고 강조했다. 다만 법률 차원에서 한국만의 AI 정의, 규율 대상 등이 명확히 이뤄지지 않았다고 지적했다. 장 변호사는 "22대 국회서 발의된 제정안을 살폈다"며 "해당 법안이 AI 기술을 규제하자는 건지, AI 시스템을 규제하자는 건지 혼동스럽다"고 말했다. 장 변호사는 "이미 EU와 미국, 영국 등은 AI법 제정에 필요한 정의를 구체화했다"며 "AI 개념뿐 아니라 데이터 입력부터 작동방식, 생산, 목적성 등 AI에 대한 핵심적인 요소를 명확히 법에 담았다"고 강조했다. 이어 "국내는 AI법에 필요한 명확한 구체성을 설정하지 않아 우려스럽다"고 덧붙였다. 장 변호사는 "국내 정부가 AI에 대한 정확한 법률 정의 없이 무조건 EU와 미국식 AI법을 따르려 한다"고 지적했다. 이어 "EU는 AI 규칙을 가장 먼저 만들었다"며 "다른 국가와 기업들이 자연스럽게 이를 따르게 하기 위한 야심을 갖고 있다"고 주장했다. 또 "EU는 궁극적으로 글로벌 AI 규제 장악을 목표로 둔 상태"라며 "한국은 국가 차원에서 AI에 대한 명확한 정의나 적용 범위가 필수일 것"이라고 덧붙였다. 이 외에도 장 변호사는 AI 규제 수준에 대한 범위, 규제 의무주체와 위범 기반 접근법에 대한 세부사항에도 구체적인 기준이 필요하다고 했다. 장 변호사는 "AI에 대한 법적 개념이나 중대한 위험을 미치는 AI 영역, 영역별 의무 수준에 대한 사회적 합의 도출이 절실"하다며 "이를 토대로 AI 법적 개념을 얼마나 구체적, 세부적으로 정의하는 게 관건"이라고 주장했다. 이날 이성엽 한국데이터법정책학회 겸 고려대 교수는 "이달 1일 EU AI법이 발효되고 현재 22대 국회에는 6개 AI 법안이 발이된 상황"이라며 "국내외 주요 법안 내용을 비교·분석하고 향후 바람직한 입법방안을 살피는 의미 있는 세미나를 개최해 뜻깊다"고 밝혔다.

2024.08.20 18:31김미정

"국내 첫 AI팀 꾸려"…태평양이 내다본 한국 AI법 방향은?

유럽연합(EU)이 생성형 인공지능(AI)법 추진을 본격화하면서 전 세계가 분주하다. 미국을 비롯한 캐나다, 영국, 일본 등 각국 정부는 AI 거버넌스 구축을 위해 연구소를 설립하고 대규모 투자를 하는 등 자국 AI법 마련에 나섰다. 한국도 마찬가지다. 정부가 AI안전연구소를 설립하고, 새로 출범한 22대 국회도 AI법 제정에 속도를 내고 있다. 당장 AI법에 영향 받을 대상은 기업이다. AI 기술이나 솔루션 출시를 위해 개인정보법, 데이터법 등 민감한 AI 규정을 세세하게 지켜야 하기 때문이다. 기업들은 원활한 AI 사업과 해외 시장 진출을 위해 AI법에 높은 관심을 기울일 수밖에 없다. 법무법인 태평양은 이런 상황을 4년 전부터 예측·준비해 왔다. 그동안 태스크포스(TF)형태로 운영됐던 AI팀은 올해 초 활동을 본격화 했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. 태평양 AI팀장 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 태평양 AI전담팀 특장점을 비롯한 인력 구성 등을 소개했다. 미국·EU AI법에 대한 평가와 향후 한국 AI법이 나아가야 할 방향성에 대해 자세히 들어봤다. Q. 태평양이 국내 첫 AI전담팀을 꾸렸다고 들었다. 이에 대한 배경은. 강: AI팀을 구축한 결정적 계기는 2017년 '이루다' 사건 변호 직후다. 국내에서 AI와 개인정보 보호법을 동시에 다룬 첫 사례다. 변호인단은 재판 뒤 6개월 동안 이루다 관계자들과 개인정보 보호법 위반 사항을 수정하고 데이터 정비를 도왔다. 당시 태평양은 AI와 데이터 처리, 개인정보 이슈 자문 수요가 늘 것으로 추측했다. 예상이 맞았다. 현재 기업들은 태평양의 이루다 데이터 정비 사례를 필수 참고하기 때문이다. 이후 금융권 AI 거버넌스 구축을 도왔다. 농협 사례가 대표적이다. 금융권 AI 컴플라이언스 리뷰 업무까지 맡았다. 산업이 생성형 AI를 구축할 때 법률 리스크 판단을 필요로하다 보니 관련 프로젝트가 꾸준히 들어오는 것 같다. Q. 태평양 AI팀 인재를 새로 영입했는지. 강: 외부에서 AI전문변호사를 영입하진 않았다. 내부 변호사들이 팀을 꾸렸다. 역량이 충분했기 때문이다. 태평양에 항공이나 전자 등 공대 출신 변호사가 많다. 일부 전문위원도 데이터 분야 업무를 수십 년 했다. Q. 현재 국내 로펌들이 AI팀을 꾸리기 시작했다. 팀 필수 역량을 무엇으로 보는지. 윤: 해외 AI법 동향을 잘 파악하는 게 관건이다. 국내 기업이 미국이나 유럽 등에 서비스를 원활히 제공할 수 있게 도와줘야 해서다. 한국에 도입될 가능성 높은 해외 AI규제를 먼저 알아야 한다. 국내 로펌이 해외 로펌들과 활발한 소통을 유지해야 하는 이유다. 태평양은 해외 로펌과 지속적인 컨퍼런스 콜을 통해 AI 정보를 꾸준히 교류하고 있다. 이런 네트워킹을 통해 해외 AI법 동향을 빠르게 수집하고, 한국화하는 데 힘쓰고 있다. 미국·유럽 로펌 세 곳과 정보 공유를 가장 자주 한다. Q. EU AI법과 달리 미국식 AI법은 상대적으로 자율적일 것이란 평가가 나오고 있다. 윤: 미국식 AI법도 EU AI법처럼 규제를 조만간 할 것 같다. 차기 정권이 AI법을 아예 자율 규제로 끌고 갈지, 아니면 기업들에게 가이드를 주고 자율적으로 이를 지키도록 할 건지가 관건이다. 향후 미국식 법은 이 둘 중 하나로 갈 것이다. Q. 미국 대선 결과가 미국 AI법 방향성을 결정할까. 윤: 아직 정해진 바 없다. 모두 아는 것처럼 카멀라 해리스 민주당 대통령 후보는 도널드 트럼프 공화당 후보보다 엄격한 AI법 방향성을 제시할 수도 있다. 트럼프 후보는 현재 바이든 행정부가 추진하는 AI 규제조차 빼자고 주장한다. 이에 미국 빅테크도 트럼프 정부 시절이 지금보다 더 좋았다는 분위기다. 해리스 후보가 당선되면 현재 구조를 유지할 것 같고, 트럼프 후보가 대통령이 되면 AI법이 통상무역 형태로 갈 것 같다. Q. 그런 분위기가 한국에 영향 미칠까. 강: 확실한 건 한국이 AI 개발 인프라를 미국서 갖고 올 때 지금보다 높은 비용을 지불할 수 있다. 이 전제에서 국회의원들은 국내 AI 산업 육성과 자립적인 기술 개발 필요성을 주장할 것이다. 특히 네이버 등 국내 대기업들이 엔비디아 AI칩 구매를 원활히 할 수 있도록 지원해야 한다고 목소리를 높일 것이다. 물론 자유 무역 체계에 따라 기술을 거래하는 건 상관없다. 그러나 AI 기술은 다르다. 단순히 통상적 방식으로만 이뤄질 문제가 아니라서다. 정부는 소버린AI 등을 간과하고 단순히 자유무역 체계에 따라 AI 무역 업무를 처리하면 안 된다. AI 기술 출처나 국가적 배경에 따라 복합적 문제가 발생할 수 있기 때문이다. 한국이 해외와 AI 무역할 때 각국 기술적, 정치적 배경을 고려한 기준을 마련해야 한다. Q. 22대 국회가 AI법을 논의하고 있다. 기본법 틀을 어떻게 만드는 것이 좋을까. 윤: 미국·EU AI법을 무조건 참고하는 것보다 한국적 상황에 맞는 AI 산업 진흥법을 갖춰야 한다. 특히 국내에 AI 보안 문제가 늘고 있다. 정부가 이 문제를 해결하지 않으면 AI 산업은 성장하지 못한다. 이를 위한 위원회를 설치하는 등 국내에 맞는 방향성이 필요하다. 물론 규제도 필수다. 지금 만들지 않으면 안 된다. 향후 EU가 자국 규제법을 따르라고 강제할 것이기 때문이다. 일단 규제 체계를 큰 틀로 만드는 게 급선무다. 규제 범위를 어떻게 정할 것인지, 강도를 어느 정도 설정할 것인지 등은 이후 조정하면 된다. 강: 최종적으로 국내 AI법이 어떤 모습일지 아무도 장담할 수 없다. 행정안전부와 과학기술정보통신부가 AI법에 대해 생각하는 것이 다르고 국회 시각도 이와 다르기 때문이다. 행안부는 강한 AI규제법을 주장하지만 과기정통부는 이를 좀 풀어주자는 의견이 지배적이라서다. Q. 이번 국회는 위험한AI와 금지된AI를 어떻게 정할지도 논의 중이다. 이에 대한 입장은. 윤: 이런 규정은 EU AI에서 왔다. 사실상 한국 정서에 맞지 않는 규정 방식이다. 물론 고위험AI는 존재할 수 있다. 관건은 한국 기업이 고위험AI로 만든 서비스를 제공한 적 있느냐는 것이다. 아직 없다. EU는 법을 이론적으로 접근하고 있다. 그래서 이런 법은 국내서 문제 될 수 있다. 실제 인간 생존과 직결되는 건 당연히 고위험AI로 지정돼야 한다. 이론상 고위험AI 논의가 필요하면 진행 가능하다. 그런데 현실에서 이 부분은 더 논의돼야 한다. Q. 현재 EU도 이 부분에 대해 골치 아플 것 같다. 윤: 그렇다. 지금 EU도 고위험AI 기준을 완전히 마련하지 못했다. EU는 제3자 적정성 평가를 통해 AI를 고위험으로 분류할 방침이다. 문제는 아직 평가 기준조차 없다. EU는 2026년 8월부터 고위험AI에 대한 리스크 세부사항을 내놔야 한다. 딱 2년 남았다. 타임라인에 맞춰 완전한 평가 기준을 만들려면 지금 시작해도 빠듯하다. 강: 결국 AI 규제는 분명히 필요하다. 다만 구체적으로 어느 AI 시스템을 얼마나 규제할 것인지에 대한 문제는 다르다. 이런 정도는 국가·사례마다 다를 것 같다. 큰 틀로 규제를 서둘러 마련하고, 세부적으로 지정할 것과 추가 판단할 것을 정해야 한다. Q. EU AI법이 전 세계에 본격적으로 영향 미치면 국내 시장은 어떻게 변할까. 윤: 국내 시장은 두 가지 특징을 보일 것 같다. 우선 EU AI법에 맞춰 유럽형 서비스를 제공하려는 국내 AI 기업이 생길 것이다. 이는 로펌뿐 아니라 다수 전문가가 예측하는 AI 시장 모습이다. 특히 국내 대기업이 AI규제 기준을 주도할 것으로 본다. 다만 한국 AI법만 기준으로 설정하지 않을 것이다.국내 기업들은 정부가 해외 규제를 따를 가능성을 높이 보기 때문이다. 이에 대기업은 미국·EU AI법이 국내에 들어오는 정도, 범위 등을 판단할 것이다. 이를 자문하는 로펌 역할이 더 중요해질 전망이다.

2024.08.19 17:52김미정

[현장] EU AI법 발효… AI 전문 변호사 "투명성이 가장 중요"

"유럽 연합(EU) 인공지능(AI) 법은 적용 범위가 굉장히 넓습니다. 국내에서 출시 되는 AI 서비스여도 EU 시민을 상대로 하면 국가·주소지 관계 없이 법이 준수돼야 하죠. EU AI 법을 명확히 알아야 하는 이유 중 하나입니다." 지난 2일부로 EU AI 법이 발효된 가운데, AI를 주로 다루는 법조 전문가가 EU AI 법에 대한 의견을 밝혔다. 법무법인 원 고인선 변호사는 7일 서울 강남에서 열린 트레인 코리아 주최 '비어 트레인' 세미나에서 '법에서 요구하는 AI 투명성이란 무엇인가?'라는 주제로 발표를 진행했다. 고 변호사는 "AI 산출물이 EU에서 사용되기만 해도 법이 적용된다"며 "당장 금지된 인공지능 관련 조항은 내년 2월부터 시행되기 때문에 관련 종사자들은 법안을 살펴볼 필요가 있다"고 언급했다. 고 변호사는 EU AI 법에서 중요하게 들여다봐야 하는 건 AI 투명성 개념이라고 강조했다. 출시가 될 수 없는 절대적 금지 AI와 달리 고위험 AI와 제한적 AI에 주로 적용되기 때문이다. AI 투명성이란 명확한 데이터 사용 정책을 수립하고 시스템이 왜 그러한 추천을 제공하는지 공개해야 하는 개념이다. 그는 "AI 투명성 개념에서 중요한 건 '추적 가능성'과 '설명 가능성'이다"라며 "AI가 할 수 있는 것과 없는 것에 대한 고지가 충분히 돼야 하고 영향을 받는 인간에 대한 권리 고지도 필요하다"고 강조했다. 고 변호사는 고위험 AI 시스템에 대한 투명성 의무에 대해 ▲설계 및 개발 ▲사용 설명서 첨부 ▲기술문서 관리 ▲로그 관리 ▲인적 감독 ▲EU 데이터베이스 등록이 필요하다고 강조했다. 이어 제50조에 등록된 AI 투명성 의무는 주로 제한적 AI에 적용된다며 ▲감정인식 시스템·생체인식 분류 시스템 ▲딥페이크 등에 의무를 진다고 설명했다. 고 변호사는 "현재 만들어진 법은 기본법의 성격을 크게 가진다"며 "시행령 등 하위법령 등이 나와야 현재 법이 다루지 못하는 부분이나 정확한 규제에 대해 언급할 수 있을 것"이라고 말했다.

2024.08.07 16:39양정민

"한국은 기본법도 없는데"…EU, 세계 최초로 AI 법안 발효

유럽연합(EU)이 인공지능(AI)법을 세계 최초로 발효했다. AI 기술의 안전하고 책임 있는 개발 및 사용을 촉진하기 위함이다. 2일 CNBC 등 외신에 따르면 EU AI법은 회원국·의회·집행위원회의 최종 승인을 받아 지난 1일부터 시행됐다. 이 법은 AI의 부정적 영향을 줄이고 기술 개발을 촉진하는데 필요한 법적 프레임워크 마련을 위해 도입됐다. EU AI법은 '금지 AI', '고위험 AI', '범용 AI 시스템' 등 총 12개의 주요 장으로 구성돼 있다. 특히 AI 시스템의 위험도를 기준으로 규제를 달리하는 '위험 기반 접근법(Risk-based approach)'을 채택해 엄격한 규제를 적용하거나 심지어는 금지한다. EU는 인권 침해 여부를 '금지·고위험 AI'의 주요 기준으로 삼는다. 여기에는 중국이 운영하는 시민 점수 체계나 구직자에게 순위를 매기는 이력서 스캐닝 도구와 같이 시민 자유·노동자 권리를 심각하게 침해하는 AI가 포함된다. 생성 AI에 대한 규제도 포함된다. 법안은 오픈AI '챗GPT', 구글 '제미나이', 앤트로픽 '클로드' 등을 범용 AI 시스템으로 규정하고 저작권 준수·투명성 공개·사이버 보안 보호 등 엄격한 규제를 부과한다. EU AI법은 시행 즉시 발효됐지만 대부분의 조항은 내후년부터 적용될 예정이다. 특히 상용 생성 AI 시스템에 대한 기업 의무 이행에는 36개월의 유예 기간이 주어졌다. 법안을 위반한 사업자는 최대 3천500만 유로(한화 522억원) 또는 연간 매출의 7%를 벌금으로 부과 받게 된다. 법안 실현을 위해 EU는 지난 3월 AI 사무소를 개설했다. 27개 유럽 회원국의 AI 관련 협력을 이끌고 법안 준수 여부를 모니터링 및 감독할 예정이다. EU 당국은 "AI법 최초 도입은 글로벌 표준을 만들기 위한 중요한 단계"라며 "이미 EU의 일반데이터보호규정(GDPR)은 국제 데이터 규제의 표준으로 작용한 바 있다"고 밝혔다.

2024.08.02 16:54조이환

과기정통부 "금지된AI 규정 명백해야…국가AI센터도 필요"

"인공지능(AI) 발전과 신뢰 조성을 동시에 해야 하는 시대입니다. 관건은 '금지된AI'와 '고위험AI' 규율 대상을 명확히 구분하는 것입니다. 국가AI센터 신설도 이뤄져야 합니다." 과학기술정보통신부 남철기 AI기반정책과 과장은 16일 국회의원회관서 열린 '통일성 있는 AI 정책 추진을 위한 입법 공청회'에서 AI기본법 규정 방향성을 이같이 밝혔다. 남철기 과장은 현재 22대 국회에서 AI 기본법안을 6건 발의한 상태라고 설명했다. 국민의힘에서 3건, 더불어민주당에서 3건씩 발의한 상태다. 남 과장은 "법안 모두 여야 성역 없이 AI 확산과 규제라는 균형을 맞추기 위해 구성됐다"고 설명했다. 그는 이중 AI를 금지된AI와 고위험AI로 규율 대상을 구분하는 법안에 집중해야 한다고 주장했다. 해당 법은 더불어민주당 권칠승 의원이 발의한 법안이다. AI 규율 대상을 금지된AI와 고위험AI로 구분하고, 의무 위반에 대해 벌칙을 규정하는 법이다. 유럽연합(EU) AI기본법이 AI를 특성에 따라 구분한 방식과 비슷하다. 금지된AI란 인간 존엄과 가치, 인류 평화와 안전에 대한 심각한 침해나 위협이 명백한 AI 기술이나 제품을 말한다. 이럴 경우 정부는 해당 AI 개발과 이용을 금지한다. 고위험AI는 인간 생명, 신체 안전 등 기본권 보호에 중대한 영향을 미칠 수 있는 AI이다. 모두 유럽연합(EU)가 AI를 특성에 따라 구분한 방식과 비슷하다. 남 과장은 금지된AI 대상 규정을 신중히 바라봐야 한다고 당부했다. 그는 "국민 안전을 위한 규정에는 동의한다"며 "다만 AI 기본법에서 별도로 규정할 만큼 이 방식이 실익 있는지 판단해야 한다"고 설명했다. 그는 EU를 제외한 국가들도 금지된AI 규정에 대해 조심스럽다는 점을 근거로 제시했다. 남철기 과장은 "EU를 제외한 미국과 영국, 일본 등 주요국도 아직 이 AI 도입 필요성에 대한 논의를 시작하는 단계"라며 "정부가 이에 대한 규정을 굳이 서두를 필요 없을 것"이라고 덧붙였다. 남철기 과장은 고위험AI에 대해서도 언급했다. 그는 "AI 혁신뿐 아니라 포용까지 포함하는 AI 거버넌스 고려가 필요하다"며 고위험AI 필요성을 강조했다. 다만 강력한 규제를 포함한 고위험AI 규정에 대해서도 신중한 고려가 이뤄져야 한다고 설명했다. 그는 "EU조차도 고위험AI에 대한 규제 시행을 2~3년 후로 정한 상태"라며 "국내 정부도 단계적 보완 입법을 통해 글로벌 규범 정합성에 맞춰야 한다"고 설명했다. 그는 마지막으로 국가AI센터 신설도 필요하다고 봤다. 다만 이를 위한 여력이 부족하다고 했다. 남 과장은 "그동안 행정안전부와 기획재정부 등에 국가AI센터 설립 필요성을 지속 제안했다"며 "과기정통부 산하기관 하나 없애면 이를 설립할 수 있다는 답변만 얻은 상태"라며 자금 부족을 언급했다. 남 과장은 "한국은 미국이나 중국처럼 AI를 생산하는 국가"라며 "우수한 AI 기술력과 유연한 AI 기본법 결합으로 AI 선진국이 되길 바란다"고 말했다.

2024.07.16 15:50김미정

EU, 세계 첫 'AI법' 확정…이사회 최종 승인

세계 첫 인공지능(AI) 규제법으로 관심을 모으고 있는 유럽연합(EU)의 AI법이 마침내 최종 확정됐다. 유럽이사회는 21일(현지시간) AI법을 최종 승인했다고 테크크런치를 비롯한 주요 외신들이 일제히 보도했다. 이에 앞서 유럽 의회는 지난 3월 AI법을 압도적인 찬성으로 통과시켰다. 보도에 따르면 유럽이사회는 이날 “AI법은 전 세계 최초 사례로 획기적인 법이다”면서 “앞으로 AI 규제에 관한 글로벌 표준을 만들 수 있을 것이다”고 의미 부여했다. 유럽이사회의 최종 승인을 받은 AI법은 앞으로 관보에 게재되며, 20일이 경과한 후에는 공식 발효된다. ■ 2021년 첫 발효…얼굴인식 기술 사용도 엄격 제한 EU가 처음 AI법을 발의한 것은 지난 2021년이었다. 이후 격렬한 토론 과정을 거친 끝에 2023년 12월 초 유럽의회와 유럽이사회, 유럽연합집행위원회(EC)의 최종 합의안을 이끌어내는 데 성공했다. 당시 EU 주요 기구들은 안면인식 기술 사용 등을 놓고 의견이 팽팽하게 갈렸다. 또 챗GPT나 구글 바드 같은 파운데이션 모델 규제 방법을 놓고도 서로 이해관계가 엇갈려 공방을 벌이기도 했다. 하지만 결국 합의안을 이끌어낸 데 성공하면서 역사적인 AI법의 토대를 마련하게 됐다. EU의 AI법이 본격 적용될 경우 챗GPT 같은 생성 AI 개발 업체에 대해선 투명성 의무가 강화된다. 생성형 AI 기술은 시장에 내놓기 전에 투명성 의무를 준수하도록 의무화했다. 또 '딥페이크' 같은 이미지는 반드시 AI로 생성했다는 사실을 밝히도록 했다. 생성형 AI 관련 조항은 2021년 'AI법'이 처음 발의될 때는 포함되지 않았다. 하지만 이듬 해 챗GPT가 각광을 받으면서 오남용 우려가 확산되자 입법 과정에서 생성 AI 관련 조항들이 추가됐다. 자율주행차 같은 고위험 기술을 사용하는 기업들 역시 데이터를 공개해야만 한다. 이와 함께 안전 강화를 위해 엄격한 테스트를 거치도록 했다. 핵심 쟁점 중 하나였던 얼굴인식 기술 사용도 엄격하게 제한하기로 했다. 이에 따라 테러범 추적이나 국가 안보 같은 꼭 필요한 경우 외에는 얼굴인식 기술을 사용할 수 없도록 했다. 금지 규정을 위반할 경우에는 최대 3천500만 유로(약 500억원) 혹은 세계 매출 7%에 해당하는 벌금을 내야 한다. ■ 회원국 합의 과정에선 몇몇 국가가 강력 반발하기도 지난 2월엔 회원국 합의 과정을 거쳤다. 하지만 이 과정도 순탄치는 않았다. 당시 오스트리아는 데이터 보호 규정에 대해 문제를 제기한 반면 독일과 프랑스는 챗GPT나 바드 같은 선진 AI 모델들이 EU AI 기업들을 무력화할 수 있다고 경고했다. 이탈리아도 시종일관 AI법에 대해 침묵하면서 한 때 합의안 도출에 대한 의구심이 제기되기도 했다. 하지만 EC가 독일, 프랑스, 오스트리아 등이 관심 갖는 부분에 대한 공식 선언을 포함시키기로 하면서 찬성 진영으로 돌아서게 됐다. 이런 과정을 거친 끝에 유럽의회 표결까지 통과한 데 이어 이번에 유럽이사회 승인을 받으면서 마지막 관문을 넘어가게 됐다.

2024.05.21 22:27김익현

뒷전으로 밀린 'AI기본법'…"22일 소집 요구 다시 할 것"

국회에 계류 중인 '인공지능(AI)기본법' 통과에 먹구름이 꼈다. 여야가 21대 국회 임기 종료를 2주 앞두고 합의점을 찾지 못하고 있어서다. 라인 매각 이슈 등이 우선순위로 떠오르면서 AI기본법 자체가 뒷순위로 밀린 실정이다. 14일 국회에 따르면 과학기술정보방송통신위원회(과방위) 여야는 AI 기본법 논의를 위한 전체 회의 일정 합의에 도달하지 못했다. 여야 모두 AI기본법 통과 필요성에 동의하고 있다. 다만 일본 라인야후 사태나 과방위 징계 이슈 등으로 AI 법은 사실상 뒷순위로 밀렸다. 21대 국회가 끝나면 AI기본법은 폐기된다. 22대 국회가 이를 처음부터 논의해야 한다. 이르면 7월부터 진행된다. 해당 법안 통과 시점이 더 늦춰질 수밖에 없다. 현재 21대 과방위에 AI기본법을 비롯한 기업연구소법, 망무임승차방지법, 디지털포용법, 디지털안전서비스법 등 6개 법안 논의가 멈춘 상태다. 그동안 6개 법안 논의 중 AI기본법 통과 여부가 가장 주목받았다. AI기본법 제정이 글로벌 이슈여서다. 현재 각국은 생성형 AI로 인한 딥페이크, 저작권 분쟁, 윤리 이슈 등으로 몸살을 앓고 있다. 이에 전 세계적으로 AI 관련법 제정에 속도를 내고 있다. 유럽연합(EU) 의회는 올해 3월 프랑스 스트라스부르에서 열린 본회의에서 AI법 최종안을 찬성 523표로 가결한 바 있다. 영국과 캐나다도 법률, 의료 등에 AI 기본 원칙을 세워 준수하고 있다. 국내선 AI에 대한 기본적인 법도 없다. 한국 AI기본법은 2021년 7월 더불어민주당 정필모 의원, 국민의힘 윤두현 의원 등이 제출한 7개 법안을 통합한 안건이다. 이 법은 지난해 2월 과방위 법안2소위까지 통과했지만, 여전히 상임위 전체 회의에 계류 중이다. 법안2소위 통과 직후 시민단체가 AI법 핵심인 '우선허용·사후규제' 원칙을 강력히 반대했기 때문이다. 당시 AI주무부처인 과학기술정보통신부는 법안 통과를 위해 시민단체를 설득했으나 긍정적인 성과를 얻지 못했다. 이에 과기정통부는 우선허용·사후규제 원칙 등을 포함해 법안을 수정하기 시작했다. 총선 이후 과기정통부가 AI기본법을 신속히 통과시켜 달라 요청했다. 그러나 과방위 여야가 합의점에 도달하지 못했다. 한 업계 관계자는 "다음 주 '서울 AI 정상회의'가 서울서 열린다"며 "AI기본법 논의를 멈춘 국가에서 AI 안전을 논의하는 게 민망할 정도"라고 했다. "22일 소집요구 다시…제대로 마무리해야" 이런 사태에 더불어민주당 과방위 간사인 조승래 의원은 이달 22일 소집 요구를 한번 더 진행할 예정이라고 밝혔다. 조승래 의원은 14일 국회 과방위 현안 관련 기자회견에서 "여러모로 여당 의원들이 낙천·낙선해 곤란한 것 이해한다"며 "그럼에도 마지막까지 최선을 다했으면 좋겠다"고 밝혔다. 그는 "21대 국회에서 해결해야 할 법안들이 아직 많다"며 "16일 마지막 소집 요구에 응하지 않는다면 22일 한번 더 요구할 예정"이라고 했다. 민주당 이용빈 의원 측도 AI기본법이 정리된 상태지만 속도를 내지 못해 답답한 실정이라고 했다. 이용빈 의원은 "세계 주요국들의 AI 주도권 경쟁이 치열한 상황에서 국내 AI산업 진흥과 생태계 강화를 위한 새로운 법적·제도적 뒷받침이 시급하다"고 강조했다. 이 의원은 "국가 경쟁력 차원에서 AI산업 생태계 지원뿐 아니라 국민 인권을 지키고 안전성이 확보된 AI개발·활용을 골자로 한 AI기본법이 21대 국회 마지막 과제로 마무리되길 바란다"고 했다. 민주당 정필모 의원도 "AI기본법은 반드시 통과해야 한다"고 말했다. 그는 "먼저 과방위 회의가 열려야 하는데, 여야 간 회의 일정 합의부터 봐야 할 것"이라고 주장했다.

2024.05.14 15:36김미정

법무법인 원, 기업인 위한 '유럽연합 AI법' 세미나 개최

기업이 반드시 알아야 할 '유럽연합(EU) 인공지능(AI)법' 핵심을 설명하는 행사가 열린다. 법무법인 원과 모두의연구소는 이달 17일 모두의연구소 강남 캠퍼스에서 'EU AI법과 기업 대응'을 주제로 세미나를 개최한다고 15일 밝혔다. 이번 세미나는 AI 활용 분야를 4단계 위험 등급으로 정의한 EU의 새로운 AI 규제 내용에 대한 기업 이해도를 높이기 위해 마련됐다. 딥페이크, 저작권, 개인정보 문제 등 AI 기술 악용으로 인한 기업의 법적 리스크를 확인하고 점검 및 대응 계획 수립을 목표로 뒀다. 세미나는 법무법인 원 AI대응팀 오정익 변호사 발표로 시작한다. 법무법인 원 김윤명 전문위원, 그리고 인이지 장윤석 사업총괄이사의 발표가 이어진다. 이어지는 토론에서는 법무법인 원 AI대응팀장 이유정 변호사 사회로 자유 토론이 진행된다. 세미나 참가 신청은 법무법인 원 홈페이지를 통해 가능하다. 법무법인 원 AI대응팀은 2020년 출범 후 AI 기술 활용 기업들이 부딪치는 다양한 법률 이슈 및 보안 문제에 대한 법률 자문을 제공하고 있다. 행사를 함께 개최하는 모두의연구소는 다양한 AI 기업, 기관, 단체 교육을 진행하고 있다. 법무법인 원 AI대응팀장 이유정 변호사는 "EU 의회가 AI법을 통과시킨 이후 글로벌 기업 대응에 나서고 있다"며 "법 적용 시점은 약 2년간의 유예 기간이 있지만 EU AI법은 포괄적인 규제를 규정하는 기본법인만큼 향후 경영 전략과 방향성을 검토를 위해서라도 면밀하게 검토하고 대응할 필요가 있다"고 강조했다. 이어 "법무법인 원 AI대응팀은 기업을 위한 AI 규제 대응, 컴플라이언스 자문, AI 윤리 교육 등 다각도의 법률 서비스를 제공할 계획이다"고 덧붙였다.

2024.04.15 10:56김미정

[유미's 픽] 국회서 낮잠 자는 'AI 기본법'…韓 AI 경쟁력 더 뒤처질까 '우려'

제22대 국회의원 선거에서 야당이 압승한 가운데 1년째 계류 중인 'AI 기본법(인공지능 산업 육성 및 신뢰 기반 조성에 관한 법률안)'이 향후 국회의 문턱을 넘을 수 있을지 주목된다. 21대 국회에서 해당 법안의 통과 가능성이 낮아 22대 국회로 공이 넘어갈 가능성이 높아진 만큼, 규제 불확실성이 높아지며 우리나라의 AI 경쟁력이 더 뒤처질 것이란 지적도 나온다. 12일 업계에 따르면 현재 국회 상임위에 계류된 'AI 기본법'은 21대 국회 임기가 종료되는 오는 5월까지 본회의를 통과 못하면 자동 폐기된다. 22대 국회 개원 후 다시 입법 발의 단계부터 시작한다면 법안 통과와 시행령 마련 등 AI 시대를 대비하기 위한 법제도 정비는 늦어질 수밖에 없다. 과학기술정보통신부는 지난 3년 간 여야 의원들이 개별 발의했던 7개의 AI 관련 법안을 가장 최근 발의된 윤두현 국민의힘 의원안인 '인공지능산업 육성 및 신뢰 확보에 관한 법률'을 기반으로 통합시켜 입법을 추진해왔다. 법안 주요 내용으로는 ▲AI 기술도입과 활용 지원 ▲AI 기술 개발과 창업지원 등 산업 육성 ▲AI 윤리원칙에 따른 정책 수립 ▲AI 신뢰성 확보를 위한 근거 마련 ▲고위험영역 AI 고지의무 부과 등 산업 진흥과 안전한 AI 사용을 위한 내용이 포함됐다. AI 기본법은 과기정통부의 올해 핵심 입법과제다. 강도현 과기정통부 2차관은 지난 2일 "AI 기본법은 시작 단계인 만큼 (세부사항의) 정도와 내용을 떠나 큰 틀을 만든다는 입장에서 조속한 입법을 희망한다"고 말하기도 했다. 하지만 국회 과학기술정보방송통신위원회(과방위)는 올 1월 전체회의 이후 감감무소식이다. 여기에 21대 국회에서 과방위 소속이던 여당 의원들이 이번에 불출마·경선탈락·낙선으로 전멸했다는 점에서 AI 기본법이 원점에서 논의될 가능성이 높아졌다. 또 22대 국회에 AI 전문가가 소수라는 점에서도 우려하는 목소리가 짙다. 더불어 지난해 국가인권위원회와 시민단체가 법안에 명시된 '우선허용·사후규제' 원칙에 대해 반대를 표명한 것도 걸림돌이다. 이 원칙은 미국 등 빅테크에 한참 뒤처진 국내 AI 산업 진흥을 위해 추진됐으나, AI의 무분별한 개발·활용에 따른 위험을 지적하는 목소리가 높았다. 이에 기존 법안보다 AI의 부작용 억제에 초점을 맞춘 입법에 무게가 실리는 모습이다. 법무법인 세종은 '제22대 국회의원 선거, 그 결과와 영향'이라는 보고서를 통해 "야당인 더불어민주당은 AI에 내재된 위험성과 우리 사회에 미칠 부작용을 우려해 AI의 개발 단계에서부터 엄격한 규제를 마련하겠다는 공약을 제시하고 있다"며 "AI 산업 진흥을 위한 규제 완화 기조에도 불구하고 AI의 전주기에 걸쳐 발생할 수 있는 사회적·경제적·윤리적 리스크를 통제하기 위한 규제를 도입할 가능성이 높다"고 말했다. 이 탓에 업계에선 AI에 대한 지나친 규제로 산업 발전 전반이 저해될까 염려하고 있다. 이미 AI 기술 패권 경쟁에서 글로벌 빅테크에 한참 밀린 상황에서 섣부른 규제가 국내 AI 산업 생태계를 완전히 고사시킬 수도 있다고 우려했다. 일단 해외에선 AI 기술 부작용을 최소화하고자 관련 규제 제정에 한창 열을 올리고 있다. AI의 발전 속도에 비해 규제가 미비하다는 지적과 그 부작용의 여파가 커져 인류의 존립까지 위협할 수 있다는 우려가 꾸준히 제기되면서 각국이 AI 관련 규범 마련에 적극 나서는 모습이다. 특히 유럽연합(EU)이 AI 규제법 제정 분위기를 주도하고 있다. 최초의 'AI 규제법'으로 불리는 EU의 'AI 법'은 지난달 13일 유럽의회를 통과했다. 미국 백악관 예산관리국(OMB)도 같은 달 28일 연방 정부 기관들이 AI 부작용 방지를 위한 안전장치를 의무화하는 정책을 발표해 눈길을 끌었다. 중국도 국가 차원의 AI 규제를 준비하고 있다. 중국은 지난해 8월 생성형 AI 서비스를 대상으로 하는 24개의 정부 발행 가이드라인을 발효했다. AI가 생성한 콘텐츠에는 적절한 라벨을 부착하고 데이터 개인정보 보호 및 지적 재산에 관한 규정을 준수해야 한다는 내용이다. 일본도 생성형 AI 개발자를 염두에 둔 규제 도입을 검토하고 있는 것으로 전해졌다. 일본 정부는 이른 시일 내에 전문가들로 구성된 'AI 전략회의'를 열어 AI 개발자를 겨냥한 규제 도입 필요성을 설명하고, 6월께 마련할 경제 재정 운영 지침에 관련 내용을 넣을 방침이다. 업계 관계자는 "사실상 회기가 종료됐다고 판단되는 만큼 AI 기본법이 더 이상 진전될 것 같진 않다"며 "법 제정이 계속 지연되면서 AI 관련 규제에 대한 불확실성이 커져 투자가 위축되고 산업의 경쟁력이 저하될 수도 있다는 점에서 우려스럽다"고 밝혔다. 그러면서 "성급한 규제가 능사는 아니지만 여러 산업에서 제도 공백으로 인한 피해가 이미 잇따르고 있다는 사실을 간과해선 안된다"면서도 "AI 규제는 양날의 검 같아 규제가 산업의 걸림돌이 될 수 있다는 점에서 선발주자들의 움직임을 참고해 규제와 발전이 동시에 가능한 합의점을 찾도록 우리나라도 적극 나서야 한다"고 덧붙였다.

2024.04.12 16:22장유미

KB국민은행 오순영 센터장 "올해 AI로 성과 낸다…금융권 고려한 AI법 필요"

"KB국민은행 금융AI센터는 기술과 비즈니스를 잇는 다리 역할을 합니다. 현업에 가장 필요한 인공지능(AI) 기술 확산을 돕고 있습니다. 올해 AI 광학문자인식(OCR)을 은행 업무에 활성화하는 것에 주력할 방침입니다. 생성형 AI 기술은 금융권에 더 확대돼야 합니다. 생성형 AI가 은행 업무에 안전하게 스며들 수 있도록 금융권을 고려한 AI법과 사회적 합의도 필요합니다." KB국민은행 오순영 금융AI센터장은 최근 본지와 인터뷰에서 올해 센터 목표와 금융 AI에 대한 전망을 이같이 밝혔다. 우선 은행 업무 생산성을 높이는 AI OCR 기술 적용을 확대할 것이라고 했다. 내부적으로 금융 특화 거대언어모델(LLM)도 만든다고 말했다. 오순영 센터장은 일반인공지능(AGI)에 대한 전망도 긍정적이다. AGI가 은행 고객에게 금융 지식을 자세히 알려주고 금융 상품 추천 등을 기존보다 맞춤형으로 제공할 수 있다는 이유에서다. "금융AI센터, 금융·기술 분야 다리 역할" 금융AI센터는 은행 업무에 가장 필요한 기술과 서비스를 개발하는 역할을 맡았다. 센터장은 이에 대한 방향성을 잡고 기술이 구현되는 걸 돕는다. 오순영 상무는 금융AI센터가 기술과 비즈니스를 잇는 역할을 한다고 봤다. 그는 "기술과 비즈니스는 매우 다르다"며 "이를 연결하는 다리 역할이 중요하다"고 강조했다. 이에 그는 "센터는 금융 전문가와 개발자 집단으로 이뤄졌다"며 "서로 다른 분야에 대해 토론하고 선진문물을 교류하는 문화를 정착한 상태"라고 설명했다. 이를 통해 금융 전문가와 개발자는 신기술을 은행 업무에 어떻게 접목할지 소통할 수 있다. 금융AI센터는 이러한 소통으로 AI 기술을 은행 업무에 확산시킨다. 오 상무는 "우선 국내외에서 주목받는 AI 기술이 나오면 내부 선행기술팀이 이를 제일 먼저 활용해 본다"고 했다. 이후 이 팀은 해당 기술이 어떤 은행 업무에 필요할지 연구한다. 이때 센터 내 금융 전문가와 적극 소통한다. 오순영 상무는 "은행에 고객 응대를 비롯한 외환 업무, 여신 심사 등 다양한 일이 있다"며 "새로운 AI 기술이 어떤 업무에 가장 적합할지 서로 연구한다"고 했다. 개발팀이 AI로 기술·서비스를 만들면 센터가 이를 은행 내부에 확산하는 일도 한다. "올해 AI로 성과 낼 것…AI OCR 활용 확산부터" 오순영 상무는 올해 AI를 통해 가시적 성과를 낼 것을 목표로 설정했다. 우선 AI OCR 기술을 은행 업무에 확대 적용할 것이라고 했다. AI OCR 연구부터 고도화를 위한 계획이 연말까지 찬 상태다. 그는 "은행에 법인 고객확인제도(CDD)나 개인 CDD를 위한 서류가 늘 쌓여있다"며 "사람이 이를 일일이 스캔하고 정보를 채우는 것이 벅찰 정도"라고 털어놨다. 외환 업무도 마찬가지다. 외환을 보내고 받을 때 채워지는 서류 양식도 제각각이다. 오 상무는 "이런 업무를 OCR로 하면 바로 해결 가능"하다며 "정보 채울 때 발생하는 휴먼 에러까지 줄일 수 있다"고 강조했다. 오순영 상무는 생성형 AI에 대한 투자수익률(ROI)이 아직 검증되지 않았다고 주장했다. 그는 "이런 상황일수록 저비용으로 높은 효과를 낼 수 있는 부분에 먼저 신경 써야 한다"고 했다. 그것이 은행권에서는 AI OCR인 셈이다. 이 센터는 금융 데이터로 여러 모델 테스트를 진행하고 있다. 오순영 센터장은 "지난해부터 오픈소스 모델에 금융 데이터를 넣어 기능을 실험해 왔다"며 "어떤 모델이 금융 분야에서 가장 높은 기능을 보이는지 평가 중"이라고 밝혔다. 그는 "유독 금융 분야에서 높은 성능을 내는 모델이 있다"며 "이를 내부적으로 순위를 매긴다"고 설명했다. 현재 이 센터는 금융 특화 언어모델도 자체 개발 중이다. 이 외에도 오 상무는 내부 데이터를 활용해 은행 업무 생산성을 높이는 대형 프로젝트 3~4개를 추진 중이라고 했다. 소규모 프로젝트 수십건도 동시 진행 중이다. 그는 "생성형 AI가 금융 업무에 얼마나 효율적인지, 비용 대비 효과가 있는지 증명하는 것을 자체 검증하고 있다"고 설명했다. 정부, AI법 논의 준비…"금융권 고려한 규제 나오길" 오순영 상무는 향후 정부가 추진할 AI법 의견도 공유했다. AI법이 기술 활용을 막는 것이 아닌 기술 확산을 위해 존재해야 한다고 강조했다. 어설프게 규제했다간 사고가 발생하기 마련이고, 산업 자체가 축소될 수 있다는 이유에서다. 그는 금융권을 고려한 AI법이 마련되길 바란다고 했다. 오 상무는 최근 통과된 유럽연합(EU)의 AI법을 예시로 들었다. EU AI법은 AI의 위험도를 4단계로 나눈 것이 특징이다. 이중 AI 위험도 안에 '생명에 위협되는 경우'가 포함됐다. 이는 금융AI에 적용하기 어렵다. 오 상무는 "금융권 고객은 AI로 생명의 위협을 느끼지 않는다"며 "제조나 건설 분야 쪽에 해당하는 분류지만, 금융 산업엔 적용하기 힘들다"고 설명했다. 그는 "AI 위험도 개념은 분야마다 디테일하게 다뤄져야 한다"고 덧붙였다. 오순영 센터장은 데이터 품질에 대한 분류도 필요하다고 봤다. 그는 "데이터 품질 기준을 명확히 마련해야 은행에서도 AI에 활용할 데이터를 유연하게 나눌 수 있을 것"이라고 봤다. "AGI 시대 올 것…'금융 리터러시' 향상에 도움" 오순영 상무는 사람 지능을 뛰어넘는 AGI의 시대가 올 것으로 봤다. 그는 "학자별로 AGI 시기를 각각 다르게 보는 경우가 있지만, 현재 기술 발전 속도를 봤을 때 생각보다 빨리 올 수 있을 것"이라고 내다봤다. 오 센터장은 금융산업은 AGI 시대를 받아들일 준비가 됐다는 입장이다. 오 상무는 "AGI가 금융권에 들어가면 금융을 이해하는 능력을 뜻하는 '금융 리터러시' 수준을 현격히 높일 수 있을 것"이라고 했다. 현재 사람들이 금융을 너무 모른다는 이유에서다. 금융 용어부터 상품에 대한 이해도, 실정에 맞는 투자 방법 등에 서툴다는 의미다. 그는 "AGI는 고객 금융 상태를 상세하고 정확하게 파악해 설명할 것"이라며 "고객이 은퇴 후 어떤 상품을 가입해야 하는지, 자녀 유학비를 어떻게 마련해야 하는지 등 세세한 계획까지 세워줄 수 있을 것"이라고 예측했다. 다만 AGI 시대가 와도 사회적 공감대가 없으면 무용지물이라고 했다. 아무리 좋은 기술도 대중이 받아들이지 않으면 소용 없다는 의미다. 사람이 AGI에 대한 불신이나 거부감을 나타낼 수 있기 때문이다. 오순영 센터장은 "모든 사람이 금융권에서 AI를 안심하고 활용할 때까지 금융과 AI 기술을 오가며 업무에 정진하겠다"고 포부를 밝혔다.

2024.03.28 10:34김미정

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

대기업 유통·이커머스 뒤바뀐 처지..."규제 풀어야 산다"

K-배터리 ‘자금 총력전’ 돌입…중국 추격 맞선 생존 투자

스벅·투썸·팀홀튼, '커피 전쟁' 격화...소비자 선택은?

4월 반도체 수출 '역대 최대'...D램 가격반등 호재

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현