• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 규제'통합검색 결과 입니다. (67건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

KIAT, 연구기반 활용 활성화 위한 교류·협력 확대

한국산업기술진흥원(KIAT·원장 민병주)은 17일 서울 소공동 롯데호텔에서 2024년 연구기반 총괄협의체를 개최하고 연구기반 활용 활성화를 위한 협력 방안을 논의했다. 연구기반 센터 총괄협의체는 산업통상자원부의 산업기술 기반구축 사업 280여 개 과제를 수행하는 연구개발기관들의 협의체다. 연구기반센터의 총괄 책임자와 실무자들이 참여해 정보를 교류하고 상호 협력 기회와 사업 개선 방안을 모색하는 등 기반구축 사업 활성화를 추진하고 있다. 이날 회의에서는 담당자 400여 명이 참석해 연구기반 구축사업을 수행하면서 발생하는 애로사항 극복 방안과 기업 지원 우수 사례를 공유하고 센터 간 협력 방안에 대해 논의했다. KIAT는 이날 KTR(한국화학융합시험연구원·원장 김현철), 한국광기술원(원장 신용진), 한국기술교육대학교(총장 유길상)와 산업기술 연구기반 구축 및 활용 활성화를 위한 업무협약을 체결했다. 이번 협약 체결에 따라 연구기반 센터는 기획재정부의 중소기업기술마켓 인증기업, 녹색인증 기업, 월드클래스 및 월드클래스플러스 기업, 규제샌드박스 승인 기업이 센터 장비를 활용하면 이용료 감면 혜택을 주기로 했다. KIAT는 앞으로 연구시설 및 장비 활용에 대한 효율성을 높이기 위해 이러한 기관 간 협력 체제 구축을 확대해 나갈 예정이다. 민병주 KIAT 원장은 “인공지능(AI)의 영향으로 경제와 사회가 모두 급격하게 재편 중인 가운데, 산업 초격차를 유지하려면 전국에 있는 연구기반 센터들의 역할이 중요하다”며 “앞으로도 센터 간 협력을 강화하는 노력을 지속하겠다”고 말했다. 한편, KIAT는 연구시설과 장비를 보유한 연구기반 센터의 안전관리를 강화하기 위해 연구과정에서 화재 발생 시 도움이 될 구조 손수건 총 3천개를 배포했다.

2024.12.17 11:00주문정

"AI기본법 '사실조사'는 독소조항...사업자 막대한 규제 부담"

인공지능(AI) 기본법의 조항 중 '사실조사'에 대한 업계 우려가 커진다. 법 위반에 대한 신고나 민원이 접수된 경우에도 정부가 현장조사를 할 수 있어, 과도하다는 목소리다. 조사 실시 요건 제한을 단순 민원 접수에서 위반 행위 인정으로 바꿔야 한다는 의견의 제기됐다. 17일 관련업계에 따르면 이날 국회 법제사법위원회는 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(대안)' 논의를 진행한다. AI기본법은 AI 기술의 발전과 안전한 활용을 촉진하기 위해 과학기술정통부가 마련했다. 다만 업계에서는 해당 법안의 '제40조(사실조사 등)'에 대해 우려한다. 먼저 제40조 1항에서는 해당 법에 위반되는 사항을 발견하거나 혐의가 있음을 알게 된 경우, 법 위반에 대한 신고를 받거나 민원이 접수된 경우 과기정통부 장관이 AI 사업자에 대해 관련 자료를 제출하게 하거나 소속 공무원으로 하여금 필요한 조사를 하게 한다고 나와있다. 2항은 과기정통부 소속 공무원에게 사업자의 사무소·사업장에 출입하여 장부·서류, 그 밖의 자료나 물건을 조사하게 할 수 있도록 규정한다고 나와 있는데, 이런 조항들이 다른 법률에 비해 지나치게 쉬운 조사 실시 요건(단순 민원)으로 정부에 과도한 규제권한을 부여해 사업자에 막대한 규제 의무를 부과시킨다는 의견이다. 업계 관계자는 "정보통신망법은 민원 접수에 따른 정부의 권한을 자료 제출로 제한하고 있지만, AI 기본법은 단순 민원 접수로도 현장 조사를 실시할 수 있게 했다. 조사권 오남용이 우려된다"고 말했다. 이어 "경쟁사의 민원이나 악성 민원에도 사실조사를 받을 수 있다는 것은 독소조항이다"라면서 "불완전한 조항에 따른 중대한 법 체계적 문제, 타법과의 형평성 문제가 발생할 수 있다"고 지적했다. 이에 업계에서는 제40조제1항제2호 삭제와 함께 피조사자의 권리 조항 추가를 통한 법 체계적 문제를 해소하는 것을 대안으로 제시했다. 업계 관계자는 "진흥법이라는 이름 아래 이 법의 위반에 대한 신고, 민원만으로 정부가 사실조사의 명분으로 사업자의 사무소, 사업장에 출입하여 장부, 서류, 그밖에 자료나 물건을 조사할 수 있다면 아마 국내 인공지능 사업을 하는 사업자는 주소지를 해외로 옮기거나 국내 영업을 안 할 우려도 있다"고 밝혔다.

2024.12.17 10:33안희정

美, 中 첨단 반도체 전·후공정 옥죈다…"韓, 수출 요건 면밀히 봐야"

미국이 연일 중국에 대한 첨단 반도체 수출규제를 강화하고 있다. 최근엔 반도체 장비에 대한 규제범위를 확대하고, EUV(극자외선)을 대체할 첨단 노광기술 분야에 대한 접근을 차단하는 등 규제를 시행했다. 국내 반도체 장비업계 역시 중국 사업 확대에 제동이 걸릴 수 있다는 우려가 제기된다. 이와 대해 전문가들은 먼저 추가된 규제 요건을 면밀히 파악하고, 상황에 맞는 대비책을 세울 필요가 있다고 제언했다. 16일 서울 스페이스쉐어 삼성역센터에서는 '미국의 대중국 반도체 수출통제 강화 설명회'가 진행됐다. 미국산 IC칩 활용 안돼…FDPR 범위 넓힌다 앞서 미국 상무부 산하 산업안보국(BIS)은 지난 2일 중국에 대한 첨단 반도체 및 반도체 제조장비에 대한 새로운 수출 규제를 발표한 바 있다. 이번 규제로 중국에 대한 HBM(고대역폭메모리) 수출 금지, 중국 제재 기업 확대, 반도체 장비 수출에 대한 규제 등이 추가됐다. 장비 수출규제 범위에는 총 24종의 반도체 제조장비와 3종의 반도체 설계용 소프트웨어 툴이 포함됐다. 반도체 제조장비의 경우 첨단 칩 제조를 위한 식각, 증착, 노광, 이온주입, 어닐링, 계측, 세정 등 주요 공정 전반을 다룬다. 특히 이번 규제에서는 한국을 비롯해 말레이시아, 싱가포르, 이스라엘, 대만 등이 FDPR(해외직접생산품규칙) 면제국에 포함되지 않았다. FDPR은 미국이 아닌 타 국가에서 만든 제품도 미국산 소프트웨어나 장비, 기술 등이 적용되면 특정 국가로의 반입을 금지하는 제재다. FDPR의 조건도 2종이 추가됐다. 기존 FDPR은 미국 기술이나 소프트웨어로 생산된 외국산 제품, 또는 미국 기술이나 소프트웨어가 사용된 해외 시설에서 생산된 외국산 제품을 통제했다. 이번 규제에서는 미국 기술이나 소프트웨어가 사용된 생산품(특히 IC칩)을 포함하는 경우도 통제 대상으로 삼기 때문에 범위가 더 넓다. 예를 들어 반도체 장비기업 A사가 미국산 IC 칩을 단 한개라도 활용해, FDPR 규제에 포함된 반도체 장비를 한국에서 제조하는 경우에도 통제 대상에 오르게 된다. 인텔 등 미국산 IC칩은 사실상 반도체 장비에 필수적으로 활용된다. 이에 설명회에 참석한 반도체 장비업계 관계자들은 중국향 수출에 미칠 여파에 우려를 표했다. 이와 관련해 강은희 무역안보관리원 정책연구팀 팀장은 "먼저 수출품의 목적지 및 거래자, 수출 품목 등이 FDPR 규제 대상에 포함되는지 살펴볼 필요가 있다"며 "미국 기술을 활용하더라도 거래처나 제품군이 규제 대상이 아니면 영향을 받지 않기 때문"이라고 설명했다. EUV 대체 기술도 차단…첨단 노광 기술 접근 '원천봉쇄' 규제 품목에 새롭게 오른 장비들도 눈에 띈다. 미국은 반도체에 회로를 새기는 노광 공정용 장비에 고성능 나노 임프린트 노광(NIL) 장비를 추가했다. NIL은 웨이퍼에 감광액(PR)을 도포하고 그 위로 특정 패턴이 각인된 스탬프를 찍어 회로를 형성하는 기술이다. EUV 등 기존 노광 공정과 달리 렌즈를 쓰지 않기 때문에 비용이 저렴하다. NIL은 기존 통제 품목인 EUV의 대체재로 평가받는다. 7나노미터(nm) 이하의 첨단 공정에서도 향후 활용될 가능성이 있어, 일본 캐논 등이 관련 기술을 적극적으로 개발해 왔다. 결과적으로, 해당 규제는 중국이 대체재를 활용해 첨단 노광기술에 접근하려는 시도까지 막기 위한 전략으로 풀이된다. HBM 등 첨단 패키징에서 활용되는 TSV(실리콘관통전극) 식각장비도 규제 대상에 올랐다. TSV는 층층이 쌓인 각 D램이 데이터를 주고받을 수 있도록 하는 일종의 통로다. 이를 위해선 식각장비로 D램에 균일하고 미세한 구멍을 뚫어야 한다.

2024.12.16 18:07장경윤

트럼프 FTC 의장 지명자 "빅테크 규제 필요…AI 규제는 최소화해야"

도널드 트럼프 미국 대통령 당선인이 지목한 새 연방거래위원회(FTC) 의장이 인공지능(AI) 규제를 최소화하는 한편 빅테크에 대한 일정수준의 규제를 시행하겠다는 방침을 분명히 했다. 13일 로이터통신에 따르면 트럼프 대통령 당선인이 FTC 의장으로 지명한 앤드류 퍼거슨은 AI 규제에 대해서는 신중한 태도를 유지하면서도 기타 온라인 규제의 필요성을 옹호하고 있다. 그는 지금까지 FTC 위원으로 활동하며 소셜미디어, 데이터 프라이버시, AI 관련 정책에 다양한 의견을 제시해왔다. 퍼거슨은 AI 혁신을 위축시키는 과도한 규제가 빅테크 독점을 강화하고 AI 스타트업들의 해외 이탈을 촉발해 미국의 기술 경쟁력을 저하시킬 수 있다고 주장했다. 이에 AI에 대한 과도한 규제를 반대하며 미국 내 혁신 환경을 유지하는 데 방점을 두고 있다. 그는 소셜미디어가 인터넷 사용자 데이터를 광범위하게 수집하고 무기한 저장하는 상황을 두고는 '위기'로 지적하며 규제 필요성을 옹호했다. 다만 데이터 활용 기반 광고 규제에 대해서는 온라인 경제의 균형을 해칠 수 있다며 우려를 표명했다. 퍼거슨은 소셜미디어 플랫폼의 콘텐츠 검열 정책도 문제로 삼았다. 그는 플랫폼이 '허위 정보'나 '증오 발언' 등 모호한 기준을 적용해 사용자 신뢰를 저버릴 위험이 있다고 지적하며 보다 투명한 정책을 요구했다. 또 퍼거슨은 아동 및 청소년의 온라인 프라이버시 보호를 위한 입법의 필요성도 강조했다. 부모가 자녀의 디지털 환경을 더 잘 통제할 수 있도록 지원해야 한다는 것이다. 로이터통신은 "퍼거슨은 빅테크 기업들을 규제하겠다는 의지를 보이면서도 AI에 대해서는 규제를 최소화하려는 입장을 밝혔다"며 "이 관점은 앞으로 메타, 마이크로소프트, 구글 등 빅테크가 FTC와 교류하는 방식에도 영향을 미칠 것"이라고 분석했다.

2024.12.13 09:04조이환

美, 반도체 장비 中 수출 또 규제…HBM도 포함

미국 정부가 한국을 비롯한 다른 나라에서 만든 반도체 장비를 중국에 수출하지 못하게 하는 법안을 마련하기로 했다. 일본과 네덜란드산은 규제를 피했다. 영국 로이터통신은 2일(현지시간) 미국 정부가 중국 140개 기업에 이 같은 내용의 수출을 제한하는 내용을 발표할 예정이라고 보도했다. 반도체 기업 20개사와 반도체 장비 업체 100여개사가 포함됐다. 이에 따라 중국 반도체 장비 기업 나우라테크놀로지그룹, 파이오테크, 사이캐리어테크놀로지 등에 수출이 제한된다. 중국 사모펀드 와이즈로드캐피털과 윙테크테크놀로지도 제재 대상이다. 미국 업체가 이 기업들에 수출하려면 미국 정부로부터 허가 받아야 한다. 중국 최대 반도체 파운드리(위탁생산) 기업 중신궈지(SMIC)에도 규제가 가해진다. SMIC는 2020년 제재 대상에 올랐으나 정책상 이유로 예외가 인정돼 지금껏 수십억 달러 규모 수출이 허가됐다고 로이터는 설명했다. 미국·일본·네덜란드 반도체 장비 업체가 다른 나라에서 만든 장비도 중국에 보낼 수 없다. 말레이시아·싱가포르·이스라엘·대만·한국에서 만든 장비도 마찬가지다. 일본산과 네덜란드산은 예외다. 로이터는 미국 정부가 일본·네덜란드와 오래 협의해 이같이 결정했다고 분석했다. 로이터는 미국 반도체 장비 업체 어플라이드머티어리얼즈(AMAT)·램리서치·KLA 등이 타격을 입을 것으로 내다봤다. 인공지능(AI) 반도체에 필수로 꼽히는 고대역폭메모리(HBM)도 중국 수출이 금지된다. 로이터는 삼성전자와 SK하이닉스, 미국 마이크론 3개사가 만드는 HBM2 이상 제품을 중국에 수출할 수 없다며 업계는 삼성전자가 이번 조치의 영향을 받을 것으로 본다고 전했다.

2024.12.02 17:20유혜진

돌아온 트럼프, 美 빅테크만 웃는다…글로벌 AI 시장 찬바람 예고

제47대 미국 대통령으로 도널드 트럼프 전 대통령이 당선되면서 인공지능(AI) 시장이 큰 변화를 맞을 것으로 보인다. 그동안 안전성, 윤리성을 고려한 규제 범위 내에서 AI 기술 개발에 속도를 내야 한다는 기조로 일관해 왔던 조 바이든 행정부와 반대로 일찌감치 규제 철폐를 예고한 만큼 빅테크들은 일단 반기는 분위기다. 7일 업계에 따르면 트럼프 당선인은 지난해 10월 바이든 대통령이 마련한 'AI 행정명령'을 취임 후 없앨 가능성이 높다. 'AI 행정명령'은 지난 해 10월 조 바이든 미국 대통령이 내놓은 것으로, 최초의 법적 구속력을 가진 연방 차원의 AI 규제다. AI 모델이 대중에게 공개되기 전에 안전성을 확보해 국가존망의 위협이나 정보 유출을 방지하고 소비자와 노동자의 권리를 지키기 위한 내용을 담고 있다. 특히 AI 안전성 검토와 딥페이크 콘텐츠 워터마크 표식을 의무화하는 규제 등을 포함하고 있는데 트럼프 당선인은 이를 '불법 검열'로 간주한 바 있다. 트럼프는 "표현의 자유에 뿌리를 둔 AI 개발로 대체할 것"이라고 공언한 상태다. 트럼프의 러닝메이트인 J.D. 밴스 부통령 당선인도 'AI 행정명령'에 부정적인 의견을 내비쳤다. 지난 7월에는 상원 청문회에서 "선제적 과잉 규제 시도가 기존 빅테크 기업들을 고착화시킬 가능성이 높다"고 주장하며 우려하기도 했다. 업계 관계자는 "트럼프 관계자들은 AI 행정명령의 보고 요건이 번거롭고 기업들이 영업 비밀을 공개하도록 강요하고 있다고 보고 있다"며 "이 요건으로 빅테크뿐 아니라 잠재적인 혁신가들의 진입 장벽을 높이고 '챗GPT' 같은 혁신을 내놓는데 더 방해하고 있다고 판단하고 있다"고 밝혔다. 'AI 규제 철폐' 약속한 트럼프, 美 빅테크에 '날개' AI를 전략 자원으로 삼고 있는 트럼프 당선인은 빅테크 기업들의 자율성을 보장하는 한편, AI 기업의 투자 및 혁신 촉진을 목표로 삼고 있다. 다자간 AI 협력보다는 미국 중심의 AI 정책에 중점을 둘 가능성이 큰 상태로, 규제 완화를 통해 AI 스타트업 투자 촉진과 혁신 가속화를 추진하고 있다. 딘 볼 조지 메이슨 대학 연구원은 "트럼프는 새로운 법률을 만드는 것보다 기존 법률을 적용하는 것에 의존하는 가벼운 규제 체제를 예고할 가능성이 크다"고 전망했다. 업계 관계자는 "트럼프 전 대통령이 당선되면서 대체로 자율 규제가 원칙이 되는 환경이 조성될 것으로 예상된다"며 "규제 완화로 자본에 대한 접근성도 높아져 AI 관련 투자를 활성화시킬 가능성도 있다"고 분석했다. 이번 일로 미국에 기반을 둔 빅테크들은 규제 부담이 없어져 AI 혁신을 주도할 환경을 갖출 가능성이 높아졌다. 구글, 애플, 메타, 아마존 등 빅테크 기업 CEO들이 대선 과정에서 트럼프 전 대통령과 우호적인 관계를 형성하고자 애를 쓴 것도 이를 염두에 둔 행동으로 분석됐다. 업계에선 규제에서 자유로워진 빅테크 기업들이 기술 개발에 속도를 낼 수 있게 되면서 미국과 다른 나라와의 AI 기술 격차가 더 벌어질 것으로 보고 우려하고 있다. 특히 미국을 견제해왔던 유럽연합(EU)과 영국은 AI 시장에서 영향력이 축소될 것으로 보고 대응책 마련에 고심하는 분위기다. 다만 이 지역에선 현재 혁신보다 규제를 우선시 하고 있어 AI 분야에서의 입지는 더 좁아질 가능성이 크다. CNN은 "빅테크 기업들은 EU와 영국이 AI 개발에서 미국에 뒤처질 수 있다고 공개적으로 경고해왔다"며 "잠재적 규제 완화에 따른 미국의 AI 미래는 영국과 EU보다 앞선 혁신을 이끄는데 도움이 될 수 있다"고 전망했다. 아만다 블록 오픈UK CEO는 "영국이 미국의 AI 입장에 동조해야 한다고 믿는다"며 "영향력을 발휘하기 위해서는 미국의 AI 선도 기업과 협력이 반드시 필요할 뿐 아니라 개방적인 자세를 취해야 할 가능성이 높다"고 밝혔다. '미국 우선주의' 내세운 트럼프…美와 AI 기술 격차 더 벌어질 듯 다른 나라들도 트럼프 당선인의 움직임이 자국 AI 기술 개발에 걸림돌로 작용할까 염려하는 눈치다. '미국 우선주의' 기조를 내세우고 있는 트럼프 당선인이 자국 AI 산업 육성과 안보를 이유로 첨단 기술 및 AI 칩 유출 방지에 나설 가능성이 높아서다. 또 AI를 구축하는 데 필요한 기술에 대해서도 관세를 부과하게 되면 AI 연구 개발(R&D) 자금이 필요한 각 기업들에게 막대한 경제적 부담으로 작용할 수 있을 것으로도 봤다. 이주헌 과학기술정보통신부 전략기술육성과장은 이날 국회에서 열린 토론회에 참석해 "미국은 자국 중심으로 AI를 성장시키고 국방 안보에도 AI 기술을 적극 활용할 것으로 보인다"며 "미국 AI 기업과의 기술 격차가 확대될 가능성이 있는 건 우려되는 지점"이라고 말했다. 업계 관계자는 "트럼프 2기 행정부가 인센티브나 보조금을 통해 미국의 AI 기술 개발을 우선시 할 것으로 보인다"며 "이 경우 다른 나라 기업들은 미국 기업과 파트너십을 맺거나 자금을 조달하는 데 더 어려움을 겪을 수 있다"고 예상했다. 특히 트럼프 당선인이 전임 대통령 시절 첨예한 대립을 이어왔던 중국은 비상이다. AI 시장에서 가장 중요하게 여겨지는 엔비디아 AI칩 수급이 더 어려워지면서 기술 고도화에 차질을 빚을 수 있어서다. 또 미국의 잠재적인 추가 규제에 대비해 화웨이를 중심으로 엔비디아에 대항할 만한 AI칩 개발에 집중하고 있지만 성능 격차가 커 이를 대체하기 어렵다는 점도 고민이다. 에크비아 시큐러스 대학교 교수는 "트럼프의 보호무역주의 정책이 AI 규제에 영향을 미칠 가능성이 있다"며 "트럼프 행정부가 AI 개발에 필요한 기술 통제를 포함해 중국에 더 엄격한 기술 통제에 나설 것으로 예상된다"고 말했다. 그러면서 "이로 인한 정치적, 지정학적 파장은 엄청날 수 있다"며 "전 세계적으로 AI를 더 권위주의적이고 억압적으로 사용할 수 있다"고 덧붙였다. 셈법 복잡해진 韓, 트럼프 규제 '예의주시'…AI 안전성 우려도 제기 국내 기업들은 이번 일로 셈법이 복잡해졌다. 국내 기업이 미국에 진출할 경우 트럼프 정부의 지원 확대, 규제 완화 정책 덕에 기회가 될 수도 있지만, 국내서 미국 기업과 협력해 사업을 전개할 경우 제약을 받을 수 있다는 전망도 나오고 있다. 트럼프 행정부에서 안보를 명분으로 AI 기술과 서비스 등의 해외 반출을 막을 수 있어서다. 삼정KPMG는 이날 발간한 보고서에서 "미국 AI 산업을 자국 기업 중심으로 구성할 경우 한국 기업은 미국 AI 생태계 진입을 위한 미국 기업과의 제휴 확대 등의 전략을 모색해야 할 것"이라며 "미국이 중국 기업을 견제할 경우 한국 등 다른 나라의 AI 기업들이 새로운 기회를 얻을 수도 있을 것"이라고 분석했다. 일각에선 국내 기업들도 미국에 대한 의존도를 줄이기 위해 독자적인 기술 개발에 적극 나설 필요가 있다고 지적했다. 또 정부 차원에서 AI 반도체, 데이터 인프라뿐 아니라 보안·AI 솔루션 관련 소프트웨어에 대한 R&D 지원을 늘리고 기업과 함께 인재 양성에도 적극 나서 산업 생태계를 강화할 필요가 있다고 주장했다. 법무법인 태평양 AI팀 유재규 변호사는 "트럼프 당선인은 미국이 AI 산업을 주도할 수 있도록 규제 완화에 나설 것 같다"면서도 "다만 미국 기업 위주 환경이 조성될 수 있어 국내 기업에게 과제가 될 수 있어 보인다"고 전망했다. AI 안전성 논란도 문제다. 업계에선 트럼프 당선인의 움직임이 AI 안전성을 위협할 것으로 보고 우려하고 있다. AI 발전의 균형추를 기술 혁신과 비즈니스 중심으로 맞출 경우 기업들의 기술 오용 등으로 국민 기본권과 국가 안보, 사회 안전을 위협할 수 있는 위험성이 커질 수도 있어서다. 샌드라 와흐터 옥스포드 인터넷 연구소 교수는 "트럼프의 복귀로 인해 기술 분야의 규제는 더 완화되겠지만, 전 세계 인권에 부정적인 영향이 미칠 것"이라며 "안전하지 않고 부정확하며 편향적으로 AI가 활용될 것으로 보여 걱정"이라고 우려했다.

2024.11.07 17:23장유미

핵심 인력 떠난 오픈AI, 우버 출신 임원 영입…내부 수습 '속도'

'챗GPT' 개발사 오픈AI가 최근 잇따른 핵심 인력들의 이탈로 몸살을 앓고 있는 가운데 우버 출신 임원을 영입해 관심이 쏠린다. 오픈AI를 떠난 인재들이 경쟁사로 자리를 옮기거나 회사를 차려 영향력을 키우고 있는 상황 속에 새로운 인력 수급으로 어수선한 내부 상황을 빠르게 안정화시킬 수 있을지 주목된다. 23일 블룸버그통신에 따르면 오픈AI는 우버 테크놀로지스(Uber Technologies Inc.)에 몸 담았던 전직 임원인 스콧 스쿨스(Scott Schools)를 첫 번째 최고 준법 책임자로 고용했다. AI와 관련된 새로운 글로벌 규제에 대응하기 위해서다. 스쿨스는 최근까지 우버에서 최고 윤리 및 규정 준수 책임자를 맡았다. 이전에는 미국 법무부에서 차관을 역임했다. 스쿨스가 오픈AI가 합류한 것은 최근 유럽연합(EU), 미국을 중심으로 AI와 관련된 규제가 강화되고 있는 것과 무관치 않다. 특히 유럽연합(EU)은 지난 3월 세계 최초로 AI규제법을 마련한 상태로, AI 기업이 규제를 위반하면 전 세계 매출의 최대 7%에 해당하는 과징금을 내야 한다. 오픈AI는 법안 발표 전에 EU와 논의했지만 의견이 제대로 반영되지 않았다고 보고 있다. 이에 오픈AI는 전 세계에서 대관 인원을 늘리고 있다. 지난해까진 오픈AI의 대관 직원 수는 3명에 불과했으나 올해 6월 기준으로 35명까지 늘었다. 최근 한국, 일본에서 대관 업무를 담당할 임원급 인사 채용 공고를 냈으며 연말에는 싱가포르에 사무소를 만들어 아시아 지역 대관을 강화할 예정이다. 오픈AI는 스쿨스뿐 아니라 경영학 교수이자 전 바이든 행정부 관료인 아론 채터지도 이번에 수석 이코노미스트로 영입했다. 채터지는 오픈AI에서 AI가 경제 성장과 일자리 창출에 어떤 영향을 미칠지에 대한 연구를 이끌어 나갈 예정이다. 업계에선 오픈AI가 스쿨스와 채터지를 영입한 것을 두고 잇따른 핵심 인재 이탈과도 연관이 있다고 봤다. 앞서 오픈AI 공동 창립자 일리야 수츠케버는 회사를 퇴사한 후 AI 스타트업 '세이프 슈퍼인텔리전스'를 설립해 50억 달러의 기업가치를 인정 받았다. '챗GPT 어머니'로 불리던 미라 무라티 오픈AI 전 최고기술책임자(CTO)도 최근 새 스타트업 설립을 위해 자금 조달에 나서 주목 받고 있다. 이 스타트업에는 무라티와 오픈AI를 퇴사한 배럿 조프 연구원도 참여할 가능성이 제기되고 있다. 오픈AI를 떠났다가 지난해 초 재합류했던 공동 창업자 안드레이 카르파티도 지난 2월 오픈AI를 그만뒀다. 오픈AI 관계자는 "스쿨스의 심층적인 전문 지식은 빠르게 진화하는 규제 환경에 적응하는 동시에 유익한 AI 기술을 제공할 수 있는 우리의 능력을 더욱 강화할 것"이라고 말했다.

2024.10.23 08:56장유미

[기고] AI 진흥과 규제의 경계

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 익히 아는 것처럼 노벨상은 알프레드 노벨의 기일인 오는 12월 10일에 시상식이 개최된다. 시상식 날로부터 두 달 전인 10월의 첫 번째 월요일부터 하루에 한 분야씩 수상자가 공식 발표된다. 올해는 토론토 대학의 제프리 힌튼 교수와 프린스터 대하의 존 홉필드 교수가 노벨 물리학상 수상자로 발표됐고 알파고로 유명한 데이비드 허사비스 구글 딥마인드 대표가 노벨 화학상의 수상자 중 하나로 발표됐다. 수상자를 발표하는 스웨덴 한림원도 수상 과정을 설명하면서 인공지능(AI) 기술이 인류에 얼마나 공헌해 왔는지를 설명했다. 이제는 AI 기술이 IT 기술의 영역이 아니라 인류의 일상 생활에 깊이 들어왔다는 점을 다시 한번 느끼게 된다. AI 기술에 대한 국가적 관심은 우리나라도 다름이 없다. 최근 대통령을 위원장으로 하는 국가AI위원회를 출범시키면서 글로벌 3대 AI 강국의 반열에 들겠다는 목표로 '국가총력전'을 선포했다. 다소 구시대적이고 식상한 느낌이 들기도 하지만 AI 산업 분야에 정부가 관심을 가지고 연구 개발과 산업화가 잘 이루어질 수 있도록 지원한다는 것이니 굳이 색안경을 끼고 부정적으로만 볼 것은 아니다. AI 기술이 향후 우리가 주목해야할 먹거리라는 점에 대해서는 큰 틀에서는 긍정적인 논의의 줄기가 잡히는 것 같다. 그럼에도 세부적으로 들어가면 쉽지 않은 이슈들이 산적해 있다. 당장 AI 기술이 가짜 뉴스, 딥페이크 기반 허위 영상물 등의 제작과 배포를 손쉽게 해 사회적으로 허용하기 어려운 수준의 범법 행위들이 널리 이루어질 수 있다는 점이 문제가 되고 있다. 과거 인터넷 기술이 그러했던 것처럼 AI 기술은 말 그대로 도구이자 기술일 뿐이라는 점에 대해서는 누구나 공감한다. 그럼에도 그로 인해 발생할 수 있는 피해를 예방하기 위해서 '직접' 규제를 하게 되면 결국에는 기술 자체에 부정적인 전후방 효과가 발생할 수밖에 없다. 전폭적인 지원 정책으로도 그 수준을 올리기 어려운 치열한 글로벌 기술 경쟁 상황에서 브레이크로 작동할 가능성이 높다는 우려도 제기되고 있다. 최근 국회는 아동 청소년 딥페이크 처벌 강화법이라는 내용으로 디지털 성범죄에 대한 처벌 강화를 위한 소위 아청법과 성폭법 개정안을 의결했다. '아동, 청소년의 성보호에 관한 법률'은 성착취물을 이용한 아동, 청소년 대상 협박 강요 범죄의 처벌 규정을 신설해 처벌을 강화했다. 또 딥페이크 등 디지털 성범죄의 긴급 신분 비공개 수사를 허용해 피해자의 긴급한 구조가 가능하도록 하는 내용을 담았다. '성폭력방지 및 피해자 보호 등에 관한 법률'은 그 자체로는 딥페이크 기술을 이용한 불법 촬영물에 관한 새로운 내용이 포함된 것은 아니다. 그럼에도 불구하고 법안의 개정은 관련 업무를 국가의 책무로 명시하고 디지털 성범죄 피해자 지원 센터 운영의 근거 규정을 신설해 피해자 보호 등의 사업을 할 수 있도록 했다. 이러한 내용들은 충분히 국가가 AI 기술 확산으로 인한 부작용을 방지하기 위해 미리 준비해야 할 영역임에는 틀림이 없다. 개정안에는 딥페이크 기술을 활용한 불법 촬영물은 소지하는 것만으로 형사처벌을 하겠다는 내용이 포함돼 있는데 최근 해당 기술을 활용한 사례들이 사회적으로 문제가 되고 있는 점을 고려해 보면 충분히 이해 가능한 부분이기도 하다. 그럼에도 불구하고 기술의 부작용을 미리 염려해 실시된 각종 규제들이 기술 발전에 예상치 못한 방해물로 작용해 왔다는 사실은 이미 오랜 기간 동안 선례로 쌓여 왔다. 인터넷 부작용을 우려해 콘텐츠에 대한 제재를 엄격하게 했다면 현재처럼 우리나라가 인터넷 강국의 지위에 오를 수 있었을런지 의문이다. 게시글의 악영향을 차단하기 위해 실명제를 도입한 이후 국내 콘텐츠 사업자들이 크게 영향을 받을 수밖에 없었던 사건은 그리 오래되지도 않았다. 최근 유럽연합(EU)은 유럽 인공지능법(EU AI법) 제정을 통해 AI에 대한 포괄적인 규제를 시도하고 있다. 그럼에도 이 법이 EU 내 AI 기술 발전에 어떠한 영향을 미칠 것인지 여전히 설왕설래가 오가고 있다. 최근 미국 캘리포니아에 제안된 AI 안전법안(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act) 역시 마찬가지다. 이 법안이 AI 모델의 규모만 고려할 뿐 그 활용 맥락은 고려하지 않고 일률적인 규제를 하는 것이 적절한지에 대하여 논란이 있기 때문이다. 바로 이 점을 들면서 주지사가 법안에 대한 거부권을 행사했다는 점 역시 AI 기술에 대한 포괄적인 규제가 가져올 부정적인 영향을 무시하기 어려운 사정이 있기 때문이라는 평가들이 존재한다. 이와 반대로 연구 개발과 발전이 진행 중인 과학기술 분야에서 일정한 기준 또는 규제가 존재해서 예측가능성을 부여하고 안정적인 개발과 운영이 이루어진 사례들도 매우 많다. 다소 이른 수준의 규제라고 모두 관료제의 병폐인 적기 조례(Red flag act)가 되는 것은 아니다. 그럼에도 그 규제가 이른 것인지 아니면 이미 늦었는지 사전적으로는 매우 판단하기 어렵다. 또 해외 사례가 반드시 정답인 것도 아니다. 결국 입장이 다른 이해관계자들이 머리를 맞대고 각자의 선의를 모아 최선의 결론을 내릴 수밖에 없다. 비록 아무 것도 하지 않는다는 것이 그 결론일지라도 말이다. 의사 결정 과정에서 정부의 적극적인 의지와 입장 표명이 중요한 점은 두말할 나위도 없다. 큰 눈으로 이슈를 바라보고 저 멀리까지 바라볼 수 있는 넓은 시야가 요구되는 시점이다.

2024.10.11 15:30법무법인 태평양 강태욱

美 캘리포니아 주지사, 'AI 규제법안' 거부권 행사

캘리포니아에서 인공지능(AI) 개발 규제 법안인 'SB 1047' 입법이 무산됐다. 개빈 뉴섬 캘리포니아 주지사ㄱ SB 1047에 대해 거부권을 행사했다. 캘리포니아주 의회가 해당 법안을 통과시킨 지 한 달만에 나온 결정이다. 뉴섬 주지사는 SB 1047가 ▲AI 모델 크기 ▲가격만을 규제 기준으로 명시한 점 등을 문제로 지적했다. 이런 조항 때문에 AI 기업들에게 지나친 부담감을 안겨줄 수 있다는 것이다. 뉴섬 주지사는 "SB 1047은 가장 크고 비싼 AI 모델에만 규제가 집중돼 있다"며 "실제 그 모델이 위험한 상황에 사용되는지, 중요한 의사결정을 포함하는지, 민감한 데이터를 사용하는지 여부를 고려하지 않았다"고 거부권 행사 이유를 밝혔다. 이어 "크기가 작은 AI 모델들도 민감한 데이터를 다루는 매우 위험한 작업에 사용될 수 있고, 대형 모델들도 고객 서비스 등 비교적 위험이 낮은 일에 활용되기도 한다"고 덧붙였다. 또 "SB 1047이 대중을 기술의 위협으로부터 보호하는 가장 좋은 방법이라고 생각하지 않는다"며 "이 법안이 빠르게 발전하는 기술을 통제하는 것에 대해 대중에게 거짓된 안도감을 줄 수 있다"고 말했다. SB 1047은 개발 비용이 1억 달러(약 1억3천만 원) 이상이거나 10의 26제곱 플롭스 이상으로 학습된 AI 모델을 대중에게 공개할 때 사전 안전성 테스트를 의무화하는 내용을 담은 법안이다. AI 기업들이 자사 AI 모델 통제가 어려울 때 작동을 멈추게 하는 '킬 스위치'를 개발할 것을 규정하는 내용도 포함하고 있다. 해당 법안을 준수하지 않는 기업에게는 주 법무장관이 소송을 제기할 수 있도록 규정한다. SB 1047를 발의한 민주당 소속 스콧 위너 캘리포니아주 상원의원은 이번 거부권 행사에 대해 "캘리포니아가 다시 한번 혁신적인 기술 규제를 선도할 수 있는 기회를 놓친 것"이라며 "그 결과 우리 모두 덜 안전해졌다"고 비판했다. 실리콘 앵글은 "뉴섬 주지사는 지난해 AI 교육 프로그램 개발과 관련해 엔비디아와 협력하는 등 AI 기술의 옹호자로 여겨져 왔고 실리콘 밸리와 긴밀한 관계를 유지하고 있다"며 "이 때문에 이번 거부권 행사는 놀라운 일이 아니었다"고 평가했다.

2024.09.30 11:11조수민

"딥페이크 행위 따라 차등 규제 필요...투명성 의무 확보 중요"

국회가 딥페이크 허위영상물에 대한 성범죄에 대응하기 위해 여러 법안을 쏟아내고 있는 가운데, 딥페이크를 활용한 행위에 대해 차등 규제가 필요하다는 전문가의 주장이 거듭 제기됐다. 딥페이크를 통한 행위들을 단 하나의 범주로 볼 수 없고, 이에 대한 규제 논의가 AI 전체에 대한 규제로 번져 일반화의 오류를 범할 수 있다는 우려에 따른 것이다. 최경진 가천대 교수는 19일 정청래 법제사법위원장이 주최한 국회 정책토론회에 발제를 맡아 “명확한 규제 범위가 필요하다”며 “AI애 대한 일반규제를 지양하고 행위에 대해 차등화된 형태로 규제를 도입해야 한다”고 말했다. 딥페이크가 본격적인 사회적 문제로 떠오른 시점은 국내에 앞서 지난 미국 대통령 선거 과정이다. 당시 트럼프, 바이든 양측 후보의 허위조작 영상물이 선거에 영향을 미칠 수 있다는 경각심을 일깨웠다. 그로부터 4년이 지나 국내에서 딥페이크를 활용한 지인의 성적 허위영상물을 비밀 메신저에 유통하고 있는 행위가 만연하단 것이 드러나며 수십여 건의 법안이 발의되고 범정부 차원의 대응 방안이 쏟아지는 사회적인 문제로 부상했다. 이처럼 민주주의의 꽃인 선거에 영향을 미치는 행위와 피해자의 인격을 완전히 파괴하는 신종 성범죄 행위가 모두 딥페이크가 남용된 사례로 꼽힌다. 아직 빈번하게 발생한 사례는 아니지만 딥페이크가 쓰인 피싱이 만연해지면 신종 사기범죄로 국민의 경제에 파괴적인 문제가 될 수도 있다. 예컨대 음성통화로 수사기관을 사칭하는 수준의 보이스피싱을 넘어 가족의 얼굴이 합성된 영상통화가 피해자를 겨냥한다면 현재 우리 사회가 겪는 문제가 극단적으로 확대될 가능성이 크다. 최 교수는 “딥페이크가 남용되는 영역은 다양하고, 각 영역마다 규제 필요성의 정도가 다를 수 있다”며 “일반적인 딥페이크 영상은 초상권이나 개인정보 침해 정도지만 가짜뉴스로 선거에 활용된다면 강력한 처벌이 필요할 것”이라고 말했다. 이어, “나아가 딥페이크 음란물로 인격을 파괴하는 수준까지 가고 있는데, 이에 대해서는 예방과 경고 차원에서 처벌 수위를 높일 필요가 있다고 생각한다”고 강조했다. 행위에 대한 규제 차등화와 함께 투명성 의무를 확보하는 게 중요한 과제로 꼽혔다. 최 교수는 “딥페이크 음란물을 추적하려면 이 영상이 딥페이크인지 확인할 수 있어야 하고, 이에 따른 기술적 장치를 해야 하는데 워터마킹이 방법이 될 수 있다”며 “또 다른 투명성 의무로 표시 의무가 있는데 AI로 생성된 콘텐츠에 자동적으로 표시가 이뤄지게 하는 것으로 서비스 약관 등 사업자 자율규제로 가능한 부분”이라고 설명했다. 이밖에 딥페이크 성범죄가 한국서 빈번하게 나타났지만, 세계적인 문제인 만큼 국제 공조와 협력적 규제체계가 필요하다는 의견도 강조됐다. 최 교수는 “규제 논의에 앞서 리터러시 확대가 매우 중요하다”며 “딥페이크 음란물을 장난으로 만드는 사람이 많은데 매우 심각한 문제라는 것을 스스로 알게 해야 하기 때문에 교육과 리터러시도 강화하는 방안으로 가는 것이 바람직하다”고 말했다.

2024.09.19 17:33박수형

승인 2주 앞둔 AI 안전법에 美 캘리포니아 주지사 "AI 문제 해결 못해"

미국 캘리포니아 개빈 뉴섬 주지사가 할리우드 배우와 출연진 동의 없이 인공지능(AI)을 활용해 이들 디지털 복제품을 만들지 못하는 법안 등에 서명한 가운데, AI 안전법으로 알려진 'SB 1047'에는 미온적 태도를 내비쳤다. 17일(현지시간) 개빈 뉴섬 주지사는 세일즈포스가 이날부터 19일까지 미국 샌프란시스코에서 개최하는 '드림포스 2024'의 '캘리포니아 드리밍: 뉴섬 주지사와 마크 베니오프의 대화' 세션에서 SB 1047 법안에 대한 견해를 이같이 밝혔다. 뉴섬 주지사는 마크 베니오프 세일즈포스 최고경영자(CEO)와의 대화에서 "SB 1047 법안이 AI 산업에 희망적이지 않다"며 "강력한 규제가 모든 AI 문제를 해결할 수 없다"고 강조했다. 이어 "오히려 캘리포니아에서 급성장하는 AI 산업을 해치지 않으면서도 문제를 해결할 수 있는 유연한 법안에 더 관심 가질 것"이라고 밝혔다. 그는 AI 위험성 개념에 명확한 선이 필요하다고 주장했다. 입증 가능한 위험과 가설에 불과한 위험에 대한 기준점이 필요하다는 의미다. 이에 외신은 뉴섬 주지사가 발생 가능성 높은 위험에 우선 대비하는 행보를 보인다고 봤다. 실제 그가 지금까지 서명한 캘리포니아 법안은 5개다. 최근 생성형 AI 기반 허위 정보, 가짜 음성, 딥페이크 등을 막기 위한 법안에 서명한 바 있다. 이는 현존하는 AI 문제다. 뉴섬이 언급한 입증 가능한 위험이다. 해당 법안은 내년 본격 발효된다. 이날 뉴섬 주지사는 2주 뒤 SB 1047에 서명할 것인지 명확히 밝히지 않았다. 그는 "법안 승인 여부를 여전히 생각 중"이라며 "확실한 결정을 아직 내리지 못했다"고 말했다. 앞서 캘리포니아주 의회는 지난달 29일 SB 1047 법안을 통과시켰다. 해당 법안은 AI 기술의 급격한 발전에 따른 안전 문제를 해결하기 위해 마련됐다. 이달 30일 뉴섬 주지사가 서명하면 공식 발효된다. 법안이 발효되면 AI 개발사는 모델 훈련 과정서 발생할 수 있는 위험을 사전에 평가하고 필요시 신속하게 모델을 중단하는 '킬 스위치' 기능을 명시해야 한다. 훈련 후 모델 변조 방지를 위해 안전 조치에 관한 조항도 법안에 포함됐다. 그동안 오픈AI를 비롯한 낸시 펠로시 하원의원, 미국 상공회의소 등은 뉴섬에게 SB 1047법안에 사인하지 말라고 압박했다. 지나친 규제로 AI 산업 발전을 저해한다는 이유에서다. 반면 일론 머스크 테슬라 최고경영자(CEO)와 앤트로픽 등은 지지를 간접적으로 표명했다. 캐나다 몬트리올대 요슈아 벤지오 교수와 제프리 힌턴 등 AI 연구자들은 SB 1047를 전폭적으로 지지하고 있다.

2024.09.18 16:48김미정

오픈AI 'o1'로 AGI 시대 성큼…"정부·기업, 개발 투명성 고려 필수"

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개하면서 일반인공지능(AGI) 시대를 향해 한 걸음 더 나아갔다는 평가를 받는다. 이달 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 o1 프리퓨 버전과 미니 버전을 블로그를 통해 공개했다. 이 모델 시리즈는 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제를 해결할 수 있다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. AI 업계가 고도화된 기술을 쏟아내고 있는 만큼 중요하게 부각되는 부분도 생겼다. 바로 AI 규제다. 현재 미국은 캘리포니아 AI 안전법을 통과시켜 개발 투명성과 안전성 부각에 나섰다. 유럽연합(EU)은 물론이고 캐나다와 영국, 일본도 마찬가지다. 이에 발맞춰 국내서도 최소한의 투명성 관련 규제가 필요하다는 의견이 나오고 있다. AGI 시대로 다가갈수록 AI 기반 솔루션과 결과물이 예측 불가하다는 이유에서다. 법무법인 태평양 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 고도화된 AI 시스템이 산업계에 안착하기 위해 필요한 법안에 대해 이야기 나눴다. 생성형 AI와 관련한 딥페이크, 저작권 문제, 근로 환경 등 이슈에 대한 의견도 공유했다. 법무법인 태평양은 AI팀 활동을 올해 초 본격화했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. Q. 지난주 오픈AI가 사람처럼 추론할 수 있는 고급 모델을 내놨다. 산업계가 AI 시스템 고도화를 신속히 진행하고 있다. 이럴수록 AI 규제 필요성이 더 높아지지 않을까. 윤: 그동안 기업이 AI 시스템 고도화를 위한 기술을 꾸준히 내놨다. 앞으로 기존 개발 틀을 벗어나진 않을 것 같다. 다만 고도화된 AI 시스템으로 무엇을 만들지 아무도 예측할 수 없다. 결국 AGI 등 고도화된 AI 시스템이 산업에 안착하려면 최소한 규제는 필요할 것이다. 이중 개발 투명성이 가장 중요하다. 정부가 개발자나 AI를 사용하는 기업에 데이터 사용 방식이나 모델 알고리즘에 대해 질문을 요구할 수 있는 규제가 필요하다. 다만 AI 산업이 어느 정도 성장한 단계에서 해당 규제를 추진해야 할 것이다. Q. 기업이 정부에게 AI 기술을 의무로 공개하는 법 정도로 이해하면 되는 건가. 조금 더 구체적으로 설명해 달라. 윤: AGI는 지금보다 훨씬 더 고도화된 AI 시스템이다. 그동안 전문가들은 AI 모델에서 파생되는 새 기술을 예측할 수 있었다. 반면 고도화된 AI 시스템이 출현하면, 예측할 수 없다. 기술 불확실성이 커진다는 의미다. 정부는 AI의 불확실성과 그로 인한 잠재적 위험을 관리하기 위한 최소한의 조치 정도로만 규제를 설정하면 된다. 개발자나 기업이 AGI로 특정 결정을 내릴 때 그 결정 과정이나 근거를 정부에 설명하거나 공개할 수 있는 체계다. 정부는 향후 이런 법안을 입법에 넣어야 한다. 이보다 더 강력한 규제는 삼가야 한다. 오히려 기술 중립성을 해칠 수 있다. Q. 현재 국내에선 현존 AI 기술로 인한 이슈가 많다. 딥페이크가 대표적이다. 정부가 딥페이크 피해 방지를 위해 여러 법안 제정을 추진 중이다. 충분히 피해를 최소화할 수 있을 것으로 보는가. 강: 방송통신위원회가 제정을 추진 중인 이용자보호법에는 딥페이크 피해 방지를 위해 AI로 생성된 콘텐츠에 AI 생성물 표시를 의무화하는 법 등을 도입할 것으로 보인다. 그러나 표시 의무 규정 법안만으로 문제를 완벽히 해결할 수 없다. 딥페이크 영상물에 AI 생성물 표시 의무를 부과하면, 일차적으로 허위 정보 확산을 방지하고 제작자·유포자에게 책임은 물을 순 있다. 그러나 딥페이크 제작자나 유포자의 거짓 고지 가능성이 있다. 이용자보호법이 문제 해결에 실효성있게 작동하려면 정부는 지금보다 디테일한 집쟁 정책을 운영해야 한다. Q. 최근 미국 캘리포니아주가 AI 안전법 'SB 1047'을 통과시켰다. 거대 AI 모델에 대한 강력한 규제를 담고 있는 법안이다. 일각에선 SB 1047이 책임소재와 범위가 과도하다는 지적이 나오고 있다. 이를 어떻게 평가하는지. 강: 해당 법안에는 AI로 인한 핵심 피해 방지를 위한 안전 평가 관련 내용과 AI 모델 개발자들에 대한 독립적 제3기관에 의한 감사, 보고의무, 학습을 포함한 AI 모델 기능을 중단시키는 전제 중단 기능 구현, 공공 안전 위협에 대한 징벌적 손해배상 등 내용을 담고 있다. AI가 가져올 위험을 통제할 수 있는 장치가 필요하다는 점에 대해서는 공감한다. 다만 이런 강력한 규제는 이미 기술·산업적으로 최정점에 서 있는 국가에서나 효율적일 수 있다고 본다. 오히려 시장에 진입하고자 하는 해외 경쟁업체들에 진입장벽으로 기능할 수도 있다. Q. 해당 법이 최종 승인되면 다른 나라 AI법에도 영향 미칠 전망이다. 국내 정부도 SB 1047과 노선을 같이할 수 있는 법안을 마련할 것으로 보는가. 강: 현재 과학기술정보통신부에서 제정을 추진하고 있는 AI 기본법은 AI 산업 진흥에 관한 법률이다. AI 시스템 규제에 초점을 맞추고 있는 법은 아니다. SB 1047처럼 AI 안전 평가, 제3자에 의한 감사·보고 의무 같은 강력한 규제 사항들이 포함되지 않을 가능성이 있다. 정부가 AI 관련 제도를 마련하는 과정에서 EU나 미국 등의 AI 관련 규제 정책 사례를 참고할 수는 있다. 다만 국내 AI 산업은 아직 성장단계에 있다. 과도한 규제가 가해질 경우 산업 자체가 위축될 수 있다는 점 고려해야 한다. 이후 고도화된 AI 시스템 대비를 위해 개발 투명성 등 적절한 규제를 추가하면 된다. Q. 저작권 이슈도 생성형 AI 산업서 많이 거론되는 주제다. 기업 노력만으로 해결할 수 있는 문제가 아니라는 평가가 이어지고 있다. 윤: 그렇다. 그동안 학습용 데이터를 무료로 이용하는 행위에 관대한 분위기였다. 챗GPT 출현 후 저작권 이슈가 나오고, 지난해 하반기부터 소송이 이어지면서 분위기가 달라졌다. 데이터 활용이 유료로 전환될 필요가 있다는 목소리가 나와서다. 이미 데이터 학습을 AI 모델에 충분히 진행한 업체나 대기업은 이에 동의하는 입장이다. 저작권 이슈는 생성형 AI 산업계와 저작권 관련 업계가 공감대를 형성해야 한다고 본다. 이는 법 마련보다 더 시급한 과제다. 지난해 저작권위원회와 문화체육관광부가 생성형 AI 저작권법 제정에 나선 바 있다. 안타깝게도 결과가 잘 안 나왔다. 당시 양측 공감대가 없었기 때문이라고 본다. 지난해 국회도 저작권법 논의 때 해결 주제를 이야기하긴 했다. 아직 마침표를 찍지 못했다. 정부가 나서서 속도감 있게 생성형 AI 산업계와 저작권 관계자 등으로부터 의견을 충분히 모으는 역할을 해야 할 것 같다. Q. 생성형 AI가 산업에 도입되면 근로 환경도 변할 것이란 전망이 나오고 있다. 기업이 직원을 AI로 대체하는 과정에서 법률적 문제를 겪을 것으로 보인다. 윤: 단정 짓기 어려운 문제다. 국내에 AI와 근로법이 충돌한 사례가 아직 없기도 하다. 다만 기업이 신규 채용을 줄이는 방식을 가장 합리적인 선택으로 볼 것 같다. 이 부분에서도 정부 역할은 필요하다. 기업이 신규 채용을 너무 줄이면 정부가 정책을 통해 관리를 해야 한다. 기업과 근로자 공감대 형성도 도와야 할 것이다. Q. 이슈를 종합해 볼 때 앞으로 AI 윤리 중요성이 높아질 것 같다. 최근 기업들이 사내에 AI 윤리위원회를 설치해 AI 개발·활용에 지켜야 할 수칙을 정하는 추세다. 올바른 방향으로 가고 있다고 보는가. 강: 최근 대기업 중심으로 AI 거버넌스를 추진 중인 걸로 알고 있다. AI를 개발·활용할 때 지켜야 하는 원칙 틀을 만드는 추세다. 이런 원칙은 국내에서 한 10개쯤 나와 있다. 문제는 원칙에 디테일이 부족하다는 점이다. 사실 이런 건 법률가들이 잘할 수 있는 업무다. 현재 법률 지식과 기업 사정에 가장 알맞은 디테일을 만들어야 해서다. 그렇지 않으면 거버넌스를 만들어도 AI 이용·개발에 충분히 적용할 수 없을 것이다. Q. 국내 기업이 AI 윤리위원회 설치를 활성화하려면 무엇이 필요한가. 강: 모든 기업이 AI 윤리위원회 필요성을 알고 있다. 다만 위원회만 만들고 끝나는 게 아니라, 실제 회사 내에서 높은 수준의 중요성을 가져야 한다. 이사회 의장 또는 최고경영자가 이를 정말 중요하게 생각해야 한다. 이들이 위원회를 지지해야 결정권도 가질 수 있어서다.

2024.09.18 13:19김미정

[기고] AI 시대의 현명한 개인정보 활용 방법

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 산업혁명 시대에는 석탄과 석유가 경제 성장을 주도하는 핵심 자원이었지만 오늘날에는 데이터가 그 자리를 차지하고 있다고 해도 과언이 아니다. 데이터는 이제 새로운 시대의 석유로 불릴 만큼 기업과 국가의 경쟁력을 좌우하는 핵심 자산이 됐다. 특히 인공지능(AI) 기술이 발전하면서 AI가 학습하고 진화하는 데 필수적인 요소인 데이터의 중요성이 더욱 대두되고 있다. 많은 유형의 AI가 존재하지만 그 중 다수가 사람과의 상호작용을 전제로 한다. 이에 데이터 중에서도 개인정보를 활용한 AI 학습 및 고도화 필요성이 커지고 있다. 그렇지만 정보주체의 권리와 관련 규제에 대한 고려가 필요하다는 점에서 개인정보는 다른 데이터에 비해 활용에 주의가 필요한 것도 사실이다. 지난 2021년에 있었던 '이루다' 챗봇 사건은 AI 기술의 가능성과 개인정보 사용의 잠재적 위험성을 동시에 보여준 대표적인 사례다. '이루다'는 자연어 처리를 기반으로 한 20대 여성 캐릭터의 AI 챗봇으로, 페이스북 메신저에서 이용자들과 대화하며 큰 인기를 끌었다. '이루다'의 가장 큰 매력은 자연스러운 대화 능력이었는데 이러한 대화 능력의 원천은 챗봇의 개발사가 운영 중인 서비스를 통해 수집한 이용자와 타인 간의 카카오톡 대화 문장이었다. 실제 대화를 기반으로 개발된 만큼 '이루다'는 뛰어난 대화 능력을 가질 수 있었는데 이용자의 개인정보 이용에 대한 동의나 가명처리 등에 대한 논란이 됐다. 이처럼 AI의 눈부신 발전 뒤에는 개인의 개인정보 자기결정권과 사생활 보호권에 대한 침해 가능성이라는 이면이 존재한다. 이제는 이 양자 간 균형을 어떻게 유지할 것인지에 대한 고민이 필요한 시점이다. 글로벌 AI 패권 경쟁이 본격화되는 상황에서 AI 발전을 저해하지 않으면서도 개인의 권리를 보호할 수 있는 선이 어디인지를 정하는 것은 매우 어려운 문제다. 그렇지만 규제의 불확실성이 오히려 AI 사업을 움츠러들게 할 수 있다는 점에서 이는 꼭 해결해야 할 과제이기도 하다. 적절한 규제의 수위를 정하기 위해서는 먼저 AI 사업자들이 AI 개발에 필요한 개인정보를 어디서 가져오는지를 따져봐야 한다. AI 사업자들이 활용할 수 있는 개인정보는 크게 온라인에 공개돼 있는 개인정보와 사업자가 기존 서비스 제공 과정에서 이미 수집해놓은 개인정보일 것이다. 이와 관련해 개인정보보호위원회(개보위)는 지난 해부터 AI 개발∙서비스에 활용되는 개인정보의 처리기준에 관한 정책방향 등을 꾸준히 내놓으며 규제의 방향을 구체화하고 있다. 지난 7월에는 공개된 개인정보 처리에 대한 안내서를 발간했다. 개보위가 지난 7월 발간한 '인공지능(AI) 개발∙서비스를 위한 공개된 개인정보 처리 안내서'의 주요 내용은 다음과 같다. 우선 안내서는 AI 사업자가 인터넷에 공개돼 있는 데이터를 웹 스크래핑 등의 방식으로 수집해 AI 학습에 활용한다면 해당 데이터에 개인정보가 포함돼 있어도 이를 정보주체의 개별 동의나 계약 체결∙이행 등의 조항에 근거해 활용하는 것은 사실상 어렵다는 점을 인정했다. 그러면서 정당한 이익(개인정보 보호법 제15조 제1항 제6호)을 근거로 공개된 개인정보를 AI 개발 목적으로 처리할 수 있다고 봤다. 이러한 정당한 이익에 근거하기 위해서는 AI 개발 목적의 정당성, 공개된 개인정보 처리의 필요성, 구체적 이익형량이라는 세 가지 요건을 충족해야 한다. 이 요건들을 충족하는지 여부는 AI 개발의 구체적 맥락을 고려해 사안별로 판단해야 하므로 여전히 모호한 측면이 있기는 하다. 그럼에도 AI와 관련 기술의 발전 속도를 고려할 때 모든 경우를 상정해 구체적인 규제 조항을 만드는 것은 불가능하고 실익도 적다. 이에 이러한 원칙 중심의 규제는 합당한 면이 있다. 그 기준을 가능한 한 구체적으로 제시한 개보위 안내서는 매우 유의미한 성과라고 할 수 있다. 공개된 개인정보의 활용과 달리 AI 사업자가 기존에 서비스를 제공하는 과정에서 수집해 놓은 개인정보를 AI 목적으로 활용하는 부분에 대해 개보위는 아직 명확한 입장을 밝힌 적이 없다. 다만 개인정보보호위원회가 공개된 개인정보 처리 안내서에서 밝힌 내용 등으로 미뤄 보아 이 경우에도 정당한 이익 조항을 실질적인 적법 근거로 활용할 수 있을 것으로 생각된다. 정당한 이익 조항에 근거하기 위한 요건인 AI 개발 목적의 정당성, 개인정보 처리의 필요성, 이익형량은 모두 사업자가 이미 보유하고 있는 실제 이용자의 개인정보를 활용할 때도 동일하게 적용 가능한 기준들이기 때문이다. 다만 AI 사업자가 기존 서비스 이용자로부터 수집한 개인정보의 경우 당초 수집 목적이 존재할 것이다. 이에 따라 정당한 이익 조항 외에도 추가적인 이용 조항(개인정보 보호법 제15조 제3항)의 활용을 고려해 볼 수 있다. 추가적인 이용 조항에 따르면 개인정보처리자는 당초 수집 목적과 합리적으로 관련된 범위에서 정보주체에게 불이익이 발생하는지 여부, 안전성 확보에 필요한 조치를 했는지 여부 등을 고려해 정보주체 동의 없이 개인정보를 이용할 수 있다. 개보위도 지난 해 8월 발간된 '인공지능 시대 안전한 개인정보 활용 정책방향'에서 특정 서비스 제공 목적으로 수집한 개인정보를 해당 서비스의 개선(고도화) 목적으로 AI 개발에 이용한다면 추가적 이용이 가능하다고 제시한 바 있다. 또 이 외에도 가명정보는 과학적 연구를 위해 정보주체 동의 없이 처리할 수 있다. 이에 따라 AI 사업자는 기존에 수집해둔 이용자의 개인정보를 가명처리해 AI 학습 개발에 활용하는 방안도 고려할 수 있다(개인정보 보호법 제28조의2 제1항). 다만 최대한의 가명 처리 노력을 하더라도 실제 이용자들의 대화 내용 속 모든 이름, 주소, 숫자 등이 완전하게 제외되지 않을 수 있어 그 완전성을 담보하기 어렵다. 또 처리하는 데이터 양이 방대해질수록 담당자가 이를 일일이 확인하기도 어렵다. 이러한 점 등을 고려할 때 가명정보 처리 조항을 적법처리의 근거로 활용하기에는 한계가 있다. 이에 따라 사업자가 이미 수집한 개인정보의 AI 목적 활용에 대해서는 정당한 이익과 추가적인 이용을 주된 법적 근거로 보되 가명처리 여부는 위 법적 근거 충족 여부를 판단하는 요소인 안전성 확보조치에 관한 것으로 보는 것이 보다 실질적인 규제 방식이라 할 것이다. 전통적으로 우리나라는 정보주체의 동의에 근거해 개인정보를 수집∙이용해 왔다. 그렇지만 개보위는 동의에만 의존하는 것이 아니라 현실에 맞는 법적 근거를 활용하도록 하는 방향으로 규제 체계를 변경하고 있다. 이러한 변화의 모습이 AI 시대에 적절한 것인지는 다소간의 의문이 있지만 동시에 국가 간 AI 개발 경쟁 역시 심화되고 있는 추세다. 이에 따라 개인정보 활용을 억제만 하기 보다는 정보주체에 대한 불이익을 최소화하면서도 다양한 법적 근거를 적절하게 활용할 수 있는 방안을 찾는 것이 중요한 과제다. 개인정보보호위원회가 지금까지 해온 것처럼 새로운 쟁점들에 대해서도 실질적이고 유용한 규제 기준을 마련해 제안할 수 있기를 기대해 본다.

2024.09.18 10:45법무법인 태평양 오세인

[현장] AI 기본법 제정, 정부·시민사회 '맞손'

인공지능(AI) 기본법 제정의 필요성과 방향을 논의하기 위해 국회 과학기술정보통신위원회와 시민단체가 손을 맞댔다. 더불어민주당 최민희 의원이 12일 국회에서 시민기술네트워크가 함께 주최한 '시민참여 AI 기본법 추진을 위한 쟁점 토론회'에는 정치인·산업계·정부·시민사회가 참석해 AI 법안 제정에 대한 다양한 의견을 나눴다. 특히 과기정통위 소속 의원 대다수가 참석해 기본법 제정의 필요성을 촉구했다. 첫 번째 발제를 진행한 영국 사회혁신연구소 '스프레드아이'의 김정원 대표는 유럽연합(EU)의 AI 기본법에 대해 소개하며 그 핵심 쟁점과 사회적 영향에 대해 논했다. 김 대표는 "EU는 지난 2018년부터 AI 법안에 대한 논의를 시작해 올해 최종안을 발표했다"며 "AI 사용 시 발생할 수 있는 인권 침해를 방지하기 위해 신중한 법안 구성을 추구하고 있다"고 밝혔다. 김 대표에 따르면 AI 기본법의 가장 핵심적인 쟁점은 고위험 AI에 대한 규제와 적합성 평가다. 현재 AI법에 의하면 표준화 기구가 규제를 주로 담당하고 있기 때문이다. 이 기구들은 주로 산업 안전을 담당해 왔다. 그는 "EU가 인권 보호에 초점을 맞췄음에도 평가기준이 이에 대해 충분히 반영되지 못하고 있다"라며 "표준화 기구들이 주로 산업 안전에만 집중하기 때문에 인권 보호가 소홀해질 수 있다"고 밝혔다. 이어서 발제를 맡은 법무법인 혁신의 박지환 변호사는 21대 국회 이후 AI 기본법 국회 입법안의 발의 과정을 설명했다. 박 변호사는 "21대 국회에서 발의된 AI 관련 법안들은 9건이었지만 이는 결국 회의 종료 이후 폐기됐다"며 "이번 22대 국회에서도 이미 10건이 발의되는 등 법안 제정을 위한 논의가 진행 중"이라고 설명했다. 그러면서 "국가 인권위원회에서는 우선 허용, 사후 규제 원칙 원칙을 삭제하라고 권고했다"며 "고위험 인공지능에 대한 규제가 앞으로도 핵심 쟁점이 될 것"이라고 주장했다. 이날 행사에는 과기정통위 소속의 더불어민주당의 김현 의원, 정동영 의원, 조인철 의원, 한민수 의원, 이훈기 의원, 황정아 의원, 노종면 의원, 이정헌 의원과 국민의힘 최형두 의원, 개혁신당 이준석 의원, 조국혁신당 이해민 의원이 참가해 의견을 나눴다. 이준석 개혁신당 의원은 정치권의 AI에 대한 접근 방식에 우려를 표하며 올바른 기술 활용의 필요성을 강조했다 이 의원은 "'챗GPT'와 같은 생성형 AI 등장 후 기술에 대한 관심이 높아졌다"며 "동시에 정치인들은 AI와 관련된 버즈워드에만 집착하는 상황"이라고 밝혔다. 그러면서 "명확한 가이드라인이 없다면 AI 발전이 오히려 국가에 위험을 초래할 수 있다"고 경고했다. 행사를 공동 주최한 최민희 더불어민주당 의원은 행사의 의미와 AI 법안 통과의 긴급성을 강조했다. 최 의원은 "지난 달부터 준비를 시작해 이번 달 빠르게 토론회를 개최했다"며 "앞으로도 법의 조속한 통과를 위해 시민사회의 의견을 바로 반영하겠다"고 밝혔다. 이번 토론회는 좌장인 이원태 아주대 교수의 진행 아래 하정우 네이버클라우드 AI 소장, 남철기 과학기술정보통신부 과장, 오병일 진보네트워크센터 대표 등 다양한 전문가들이 참여해 AI 법안에 대한 의견을 나눴다. 좌장인 이원태 아주대 교수는 "AI 기본법은 사회 전반에 걸친 중요한 문제"라며 "이번 토론회를 통해 다양한 이해관계자의 의견을 반영할 수 있게 되길 바란다"고 밝혔다.

2024.09.12 18:01조이환

"EU 같은 규제 안돼"…美 AI 로비스트, 의회 여론 선점 나서

인공지능(AI) 규제 논의와 발전 속도에 발맞춰 AI 산업 로비스트들이 발 빠르게 미국 의회에 손을 내밀고 있다. 9일 AP통신 등 외신에 따르면 AI 산업 로비스트들은 의원·보좌관들과 직접 만나 AI 규제 법안 수위에 대한 캠페인과 로비를 진행 중이다. 외신들은 미국 로비스트들이 미국의 AI 규제가 유럽연합(EU)의 AI 법을 따라가지 않도록 로비 중이라고 보도했다. 의회 의원들을 지속적으로 교육하고 정보를 제공해 의원들이 과도한 규제를 담은 법을 만들지 않도록 나서는 것이다. 실제로 AI 로비 단체 수는 2년 사이 급증했다. 미국 정치 자금 감시기관 오픈시크릿에 따르면 AI 이슈에 로비하는 조직은 2022년 158개에서 2024년 462개로 약 190% 이상 증가했다. 일부 로비스트 단체 뒤에는 마이크로소프트, 아마존 등 빅테크도 있는 것으로 알려졌다. 미 의회도 로비스트에게 호의적인 것으로 알려졌다. 특정 법안에 지지·반대를 표하는 것이 아니기 때문에 상호 간의 관계 구축에 용이하기 때문이다. 소프트웨어 얼라이언스 크레이그 올브라이트 수석 로비스트는 "의회 관계자들은 AI와 관련된 정책 교육을 받고 싶어 한다"며 "우리는 AI를 향해 닫혀 있는 문을 열고자 한다"고 말했다. 반면 학계는 기업 로비스트들의 세력에 밀리는 분위기다. 매사추세츠 공과대학 맥스 테그마크 교수는 "학계가 이 정도 세기의 로비 수준을 견제하는 건 어려운 일"이라고 우려했다. MIT 아수 오즈다글라 컴퓨터 과학과 교수도 "학계는 컴퓨팅 리소스에 대한 접근성이라는 큰 과제를 안고 있다"며 "우리는 연구를 하고 있고 이들을 따라잡고자 하지만 경쟁에서 살아남으려면 여러 가지 난관이 있다"고 아쉬움을 내비쳤다. 미국 버지니아주 돈 베이어 민주당 의원은 "아직 누구에게도 EU AI 법과 관련해 EU를 옹호하는 입장을 듣지 못했다"라며 "끊임없이 의회에 들려오는 이야기는 미국이 EU가 간 길을 똑같이 따라가지 말아야 한다는 것"이라고 말했다.

2024.09.09 11:53양정민

美·英·EU, 'AI 국제조약' 최초 체결

미국, 영국, 유럽연합(EU)이 인공지능(AI) 기술 혁신과 윤리를 동시에 발전시키고자 법적 구속력이 있는 국제 조약을 체결했다. 하지만 일부에서는 이번 조약의 실효성에 대해 의문을 제기하고 있다. 6일 도이체벨레에 따르면 유럽평의회가 주도한 이 조약은 지난 5일 리투아니아 빌뉴스에서 미국, 영국, EU 등 여러 국가가 서명했다. 이 조약은 AI 기술 발전을 장려하면서도 그로 인한 위험을 관리하는 법적 규제를 제시한다. 이번 조약은 ▲인권 ▲민주주의 ▲법치주의 등 세 가지 중요한 영역에 AI를 어떻게 적용할 지에 초점을 맞추고 있다. 특히 이 조약은 AI 시스템의 전체 수명주기를 관리하는 규정을 포함하고 있어 기술 개발부터 폐기까지 전 과정을 감독하는 것을 목표로 한다. 이는 고위험 분야에서 AI가 인권을 침해할 가능성을 예방하기 위한 조치다. 미국, 영국, EU 외에도 안도라, 아이슬란드, 몰도바, 이스라엘 등도 이번 조약에 서명했다. 앞으로 다른 국가들도 서명할 수 있는 개방형 조약으로 설계됐다. 서명한 국가는 자국 내에서 비준해 법적 구속력을 부여해야 한다. 조약에 참여한 국가들은 기술 혁신을 촉진하는 동시에 AI가 사회에 미칠 부정적 영향을 최소화하는 데 중점을 두고 있다. 이번 조약은 AI 규제의 글로벌 기준을 제시함으로써 향후 AI 기술의 발전 방향에도 큰 영향을 미칠 것으로 보인다. 그럼에도 불구하고 일부 전문가들은 조약의 법적 집행의 실효성에 대한 의문을 제기했다. 비영리법 유럽센터(ECNL)의 프란체스카 파누치 변호사는 "이 협약에서 규정한 원칙과 의무는 너무 광범위하고 단서 조항이 많다"며 "이에 법적 확실성과 효과적인 집행 가능성에 심각한 의문이 있다"고 주장했다.

2024.09.06 09:57조이환

[현장] "지시와 규제만으론 AI 시대 곤란"…박영선 前 중기부 장관, AI 기본법 소견 밝혀

지난 4월 미국 하버드대학교 연구 과정을 마치고 돌아온 박영선 전 중소벤처기업부 장관이 복귀 후 첫 국회 방문에서 인공지능(AI) 기본법과 경직된 한국 사회의 분위기에 대해 언급했다. 박 전 장관은 4일 국회 제4간담회실에서 열린 'AI와 디지털 전환(DX)의 미래 정책 방향' 간담회에 참석해 AI 기본법에 대한 소견을 밝혔다. 이 자리에서 박 전 장관은 "인간이 마차를 발명하고 자동차를 발명한 뒤 영국에선 자동차가 마차보다 빨리 가선 안 된다는 '레드플래그 법'이 만들어졌다"며 "이 규제로 자동차 산업의 중심은 미국으로 건너갔고 이는 미국을 100여 년간 패권국가로 만든 주인공"이었다며 적확한 규제의 중요성을 강조했다. 이어 "판단과 결정에 익숙하지 않은 대한민국은 지금 병목현상에 걸렸다고 생각한다"며 "지시와 규제가 익숙한 사회다 보니 우리 사회가 점점 경직화되고 있다"고 우려했다. 박 전 장관은 "중기부 장관 시절 공무원들은 매번 '잘못되면 어떡하지'라는 걱정 속에 사로잡혀 규제를 계속해서 만들어 냈다"며 "AI 기본법을 포함해 이 규제를 어떻게 짜느냐가 정치와 국회의 역할"이라고 덧붙였다. 박 전 장관은 AI 국가 위원회에 대해서도 첨언했다. 문재인 정부, 박근혜 정부, 이명박 정부에서도 대통령과 각 부처 장관이 참석하는 위원회가 있었지만 기업 총수·대표 등 목소리를 내야 하는 이들이 제대로 된 의견을 낼 수 없는 분위기라는 것이 박 전 장관의 주장이었다. 박 전 장관은 "각 기업의 대표들이 제대로 말할 수 없는 분위기가 만들어진 이유는 지시 문화 때문"이라며 "이를 타파하기 위해선 AI 기업 등 대표들이 자유롭게 논의를 주고받을 수 있는 수평적 거버넌스가 만들어져야 한다"고 언급했다. 그는 "지난해 하버드에 있으면서 '우리가 과거 메모리 반도체의 영광에 너무 취해 있었던 것 아닌가'라는 생각이 들었었다"며 "국회에서 치열하게 AI 입법과 규제를 범국민적으로 토론하고 고민하는 모습을 보여야 한다"고 말했다.

2024.09.04 17:30양정민

[현장] "챗GPT 시대 맞는 AI법 필요"…국회, AI 규제 관련 논의

"지난 21대 국회에서 인공지능(AI) 법을 만들려고 했으나 법제화의 현실이 챗GPT 이전 수준에 머물러 있었습니다. 생성형AI가 나오고 있는 상황에서 알파고 입장에서 법제를 만들면 안되잖아요. 탄탄한 토대 하에 법을 만들기 위해 이번 간담회를 열었습니다." 더불어민주당 조승래 국회의원은 4일 국회 제4간담회실에서 '인공지능(AI)과 디지털 전환(DX)의 미래 정책 방향' 간담회에서 제대로 된 AI 기본법이 필요하다고 말했다. 이번 간담회에서는 AI 기술 확산에 따른 사회경제적 영향과 AI 법제화의 방향에 대해 발표가 이뤄졌다. 조 의원은 "AI는 몇 년 전부터 깊숙하게 들어와 있는 주제지만 국회의 시각은 알파고에 멈춰 있는 것 아닌가라는 의문 들었다"라며 "기술이 합의보다 먼저 가버리는 시기지만 합의가 먼저 이뤄지지 않으면 자칫 속박으로 작용할 수도 있다"고 우려했다. 한국지능정보사회진흥원(NIA) 이용진 AI 정책 본부장은 "과기정통부에 따르면 AI가 성공적으로 도입될 경우 연간 300조원 이상의 경제 효과가 있다"며 "2026년까지 123조원에 가까운 매출 증가와 약 187조원의 비용 절감 효과가 있을 수 있다"고 강조했다. 특히 제조업에선 약 24조원의 매출 상승, 54조원의 비용 절감 효과가 있을 수 있을 수 있다며 산업별로 허들을 정확히 파악해 규제를 만드는 것이 매우 중요하다고 덧붙였다. 이번 간담회는 과학기술정보통신부 후원으로 조 의원과 국민의힘 최형두 국회의원을 포함해 박영선 전 중소벤처기업부 장관, 과기정통부 류제명 네트워크정책실장, 조국혁신당 강경숙 국회의원 등이 참석했다. 이어진 발표에서 법무법인 광장 고환경 변호사는 일본, 미국에 비해 한국은 내세울 수 있는 AI 기술 기업이나 유니콘 기업이 없는 것이 현실이라며 학습데이터나 관리 체계 투자 측면에서 한국이 약점을 갖고 있다고 말했다. 고 변호사는 "AI 기술에 대해서는 대규모 자본 투자가 불가피하기 때문에 규제 불확실성을 빨리 해결해줘야 한다"며 "AI 안전연구소 설치와 관련해서도 실증적 테스트를 통해서 위험에 대해 어느 정도 대처해야 하는지 연구가 적극적으로 이뤄져야 할 필요가 있다"고 언급했다. 고 변호사는 거버넌스를 통해 일관된 정책과 AI와 관련한 최소한도의 예측 가능성을 제시하는 것이 필요하다며 자율규제 방안 마련을 중심으로 최소한의 규제만을 담은 입법 검토가 절실하다고 발언했다. 고 변호사는 앤드류 응 교수의 발언을 인용해 "EU AI 법은 제대로 존재한 적 없는 AI 리스크에 대한 강도 높은 규제를 표하고 있다"며 "이는 시장 뿐 아니라 규제 실패까지도 우려되는 상황"이라고 비판했다. 이어 "EU AI 법의 과징금 부담이 매우 크기 때문에 애플, 메타 등 빅테크가 AI 서비스 출시를 보류했다"며 "소비자들의 AI 서비스가 크게 제한될 조짐이 있다"고 아쉬움을 표했다. 이어진 토론에서 법무법인 세종 장준영 AI 센터장은 "규제적 측면에선 유럽을 참고하고 기술적 측면에선 미국을 참고할 필요가 있다"며 "우리나라는 유럽과 미국 사이에서 어떤 스탠스를 취해야 하는지 균형점을 잘 도출해야 한다"고 강조했다. 또 "AI는 정보처리 기술이 발전해 오며 나타난 데이터 처리 기술의 화룡점정"이라며 "해외의 AI 법을 참고하는 것도 좋지만 우리나라에서 여태 동안 해왔던 데이터 활성화 관련 법안들을 계승하는 AI 기본법이 만들어지길 바란다"고 기대했다. 류 실장은 "지난 3일 과방위에서 늦더라도 AI 기본법 관련해서 제대로 된 논의와 공청회를 한 번 거치고 가면 좋겠다는 의견이 있었다"며 "정책들이 추진되고 예산이 투입되려면 법적 근거가 필요한 만큼 국회가 신뢰할 수 있는 AI를 만들기 위한 법적 근거를 신속히 만들어 주길 바란다"고 말했다.

2024.09.04 16:50양정민

美 캘리포니아 AI 안전법 'SB 1047' 통과…EU·국내 여파는?

미국 캘리포니아 주 의회가 인공지능(AI) 규제 법안 'SB 1047'을 통과시켜 주지사 승인을 기다리고 있는 가운데 유럽연합(EU)이 이를 자국 AI법 시행에 참고할 계획인 것으로 전해졌다. 국내 AI 기업들도 법안의 향방에 주목하고 있다. 30일 더 버지 등 외신에 따르면 캘리포니아 주 의회가 지난 29일 'SB 1047' 법안을 통과시켰다. 이는 다음 달 30일 개빈 뉴섬 캘리포니아 주지사가 서명하면 공식 발효된다. 해당 법안은 AI 기술의 급격한 발전에 따른 안전 문제를 해결하기 위해 마련됐다. 법안이 발효된다면 AI 개발사는 모델 훈련 과정서 발생할 수 있는 위험을 사전에 평가하고 필요 시 신속하게 모델을 중단하는 '킬 스위치' 기능을 명시해야 한다. 훈련 후 모델 변조 방지를 위해 안전 조치에 관한 조항도 법안에 포함됐다. 앞서 실리콘밸리와 정치권은 이 법안을 두고 논란을 빚었다. 테크 기업들은 과도한 규제가 기술 발전에 제약이 될 수 있다고 우려를 표명했다. 특히 오픈AI는 법안 발의자인 스콧 위너 주 상원의원에게 공개 서한을 보내 'SB 1047'이 테크 기업들의 대탈출을 불러일으킬 것이라고 경고한 바 있다. 오픈AI는 캘리포니아 사무실 확장을 유보하고 있다. 오픈소스 위주로 AI를 취급하는 스타트업 업계와 학계 역시 법안에 강력하게 반발하는 것으로 알려졌다. 법적 책임을 개발자에게 지우는 'SB 1047' 법안이 필연적으로 오픈소스의 발전을 저해할 것이라는 게 이들의 주장이었다. 페이페이 리 스탠포드 대 교수는 지난 8일 포춘지에 보낸 공개 서한을 통해 "법안은 오픈소스 AI 개발을 위축시키고 학계와 중소기업에 타격을 줄 것"이라며 "AI 개발자들에게 법적 책임을 부과한다"고 말했다. 이와 반대로 일부 테크 업계 인사들은 법안에 찬성했다. 일론 머스크 테슬라 대표는 'SB 1047'이 AI 시스템의 잠재적 해악을 방지하는데 필수적이라고 밝혔다. 또 초기에 법안에 반대했던 다리오 아모데이 앤트로픽 최고경영자(CEO)는 "정부 AI 감독 부서를 신설하거나 AI에 문제가 발생할 때 개발사를 처벌한다는 조항이 사라졌다"며 "법안의 이점이 해악보다 커졌다"고 주장했다. 정치권에서는 낸시 펠로시 등 일부 연방 의원들이 주 차원의 규제는 불필요하다고 주장했다. 이와 반대로 캘리포니아 주 의원들은 연방 정부가 AI 규제에 소극적이라는 점을 지적하며 주가 먼저 규제에 나서야 한다는 입장을 고수했다. 법안은 주 상원의 최종 승인을 받은 후 주지사에게 전달됐다. 다음달 30일까지 개빈 뉴섬 캘리포니아 주지사는 법안에 서명할지를 선택해야 한다. 'SB 1047'이 통과를 목전에 앞둔 현재 EU와 국내 AI 관계자들 역시 법안의 향후 전개에 촉각을 곤두세우고 있다. 현재 'SB 1047'에 대한 유럽연합(EU) 측의 공식적인 반응은 제한적이다. 아직 해당 법안이 주지사의 승인을 받지 않은 상태로, EU 역시 유사한 규제인 EU AI법을 시행하고 있는 단계이기 때문이다. 다만 EU 집행위원회의 AI 사무국은 캘리포니아 법안을 주의깊게 모니터링하며 EU AI법 시행과정에도 참고할 계획인 것으로 알려졌다. 전문가들은 이러한 행보가 'SB 1047'이 EU의 규제보다 더 구체적인 면이 있기 때문이라고 분석했다. 특히 딥러닝 분야의 선구자인 요슈아 벤지오 몬트리올 대학교 교수는 "EU도 이 법안에서 영감을 받아야 한다"며 "여전히 발전 중인 AI 분야에서 'SB1047'은 기업과 학계의 노력이 결실을 맺을 수 있도록 하는 유연한 규제"라고 주장했다. 국내 AI 업계에서도 'SB 1047'의 향방에 주목하고 있다. 캘리포니아 주의 AI 규제는 필연적으로 실리콘밸리에 밀집한 빅테크의 운영에도 큰 여파를 미칠 것이기 때문이다. 이에 이들과 긴밀히 교류하거나 미국 진출을 계획하는 국내 기업들도 영향을 받을 것으로 예상된다. 한 국내 테크 스타트업 관계자는 "법안의 의도에는 공감하나 책임소재와 범위가 과도하다는 점에서 미국 스타트업들과 동감한다"며 "기술을 남용한 사람의 책임을 개발자에게 지운다면 이는 개발을 저해할 것"이라고 밝혔다. 그러면서 "물론 개발자들도 지속적으로 AI 정확성과 성능 뿐만 아니라 안전성을 위해서 노력해야 한다"고 강조했다. 일부 전문가들은 'SB 1047'이 AI 규제의 선례로 남을 가능성을 지적했다. IT 기술의 본고장인 캘리포니아에서 AI 법이 조기에 제정된다면 다른 나라들도 유사한 법을 도입할 수 있다는 것이다. 한 국내 IT 기업 관계자는 "이럴 경우 스타트업들의 장점인 민첩한 기술 혁신을 막는 부작용이 생길 수 있다"며 "국내 스타트업들의 사기가 저하되고 그 여파로 창업을 안하게 되는 풍조가 이어질 수 있다"고 예측했다.

2024.08.30 17:31조이환

금융권, 망분리 규제 완화…AI 전환 속도 올린다

금융권 망분리 규제가 이르면 올해 말부터 순차적으로 완화됨에 따라 금융 분야에서도 인공지능(AI) 전환이 본격화할 전망이다. 29일 업계에 따르면 금융·테크 기업들은 이번 규제 완화가 생성형 AI와 머신러닝(ML)을 금융 분야에 적극적으로 도입하는 발판이 되길 기대하고 있다. 특히 금융권에서 발생하는 각종 사고와 범죄를 방지하고 직원과 고객의 의사결정을 더욱 효과적으로 지원할 수 있을 것이라고 전망했다. 김병환 금융위원장은 "IT 환경이 생성 AI와 클라우드 컴퓨팅을 중심으로 변화하고 있다"며 "이러한 환경에 적응하기 위해서는 망분리 규칙을 개선해야 한다"고 밝혔다. 특히 업계 전문가들은 이번 조치가 금융권 횡령 문제를 방지하는 데 큰 역할을 할 것으로 예상했다. 이는 현재 금융업계가 심각한 횡령 문제로 어려움을 겪고 있기 때문이다. 금융감독원이 최근 발표한 자료에 따르면 지난 6년 동안 총 1천804억원 규모의 횡령 사건이 발생했고 총 202명의 임직원이 연루된 것으로 나타났다. 망분리 규제가 없는 해외에서는 AI 기반 검수 및 데이터 분석을 통해 이러한 문제를 효율적으로 해결해 왔다. 알고리즘과 머신러닝 기술이 변화하는 사기 패턴에 빠르게 적응하고 고객을 효과적으로 보호할 수 있는 능력을 가졌기 때문이다. 실제로 미국의 AI 전문기관인 AI 엑스퍼트 네트워크에 따르면 JP모건은 이미 매일 약 10조 달러(약 13경2천조원) 규모의 거래를 분석하면서 비정상적인 자금 흐름을 실시간으로 탐지해 수백억 달러 손실을 방지하고 있다. 한 금융업계 관계자는 "현재 AI는 이미 망분리 이전에도 신용평가, 대출 심사, 상품 및 투자 추천 등에서 많은 주목을 받고 있었다"며 "이제 소비자 측면에서의 서비스 제공만이 아니라 자금세탁 및 의심 거래 탐지에도 효과적일 것"이라고 밝혔다. 또 금융권은 이번 망분리 조치가 생성 AI를 실질적인 의사결정 도구로 활용할 기회가 될 수 있다고 주목하고 있다. 이미 AI 챗봇은 주식 투자에서 놀라운 성과를 보이며 금융 분야에서의 성공을 입증했다. 지난해 영국의 금융 비교 웹사이트인 파인더닷컴의 조사에 따르면 펀드매니저와 '챗GPT'의 추천 주식을 비교한 결과, '챗GPT'가 더 나은 수익률을 기록했다. 또 AI는 고객 문의를 신속하게 처리하고 정확한 정보를 제공함으로써 불완전 거래를 해소할 수 있다고 평가 받고 있다. 영국 TSB 뱅크는 이미 고객 맞춤형 은행 경험을 제공하기 위해 AI 챗봇을 도입했다. 이 챗봇은 24시간 동안 실시간으로 서비스를 제공한다. 국내 AI 스타트업들 역시 이러한 변화를 환영하는 분위기다. 그동안 규제로 인해 AI 도입이 어려웠던 상황에서 벗어나 새로운 시장이 열리게 됐기 때문이다. 한 국내 AI 업계 관계자는 "이번 금융권 망분리 규제개선은 단기적 효과보다는 생성형 AI 활성화 방향성을 규제기관이 제시했다는 점에 의미가 있다"며 "온프레미스 환경에서 전환되기에는 시간이 필요하겠지만 업무 내에서 보안과 개인정보의 범주를 구분하며 빠르게 솔루션 도입을 시도하는 기업들이 늘어날 것으로 보인다"고 예측했다. 업계 전반이 망분리의 긍정적 효과에 주목하는 가운데 일부 전문가들은 생성 AI가 기존 금융 업무를 완전히 대체하기보다는 인간의 업무를 증강하는 방향으로 나아가야 한다고 지적했다. 생성 AI가 아직 할루시네이션, 편향 등의 오류로부터 자유롭지 않기 때문이다. 서호진 금융보안원 팀장은 "생성 AI 기술을 챗봇에 적용할 경우 기존보다 다양한 정보를 더 많은 고객에게 제공할 수 있을 것"이라며 "다만 현재 AI는 결과를 신뢰할 수 없는 특성이 있어 중요 의사결정 시 인간의 판단이 반드시 개입돼야 한다"고 강조했다. 이러한 우려를 반영해 금융보안원은 금융권 특화 AI 거버넌스 가이드라인을 발간할 예정이다. 이를 통해 금융회사가 기존 법을 준수하면서도 AI를 통한 이점을 극대화한다는 방침이다. 연내 발간이 예정된 이 가이드라인은 AI가 가진 기술적 한계를 감안하면서 위험관리 체계를 구축하고 AI 전담조직을 구성하는 방안 등에 대한 지침을 제공할 예정이다. 서 팀장은 "AI 활용에서 인간에게 최종적인 결정권을 두는 개념인 휴먼인더루프(Human-in-the-loop)가 개인 재산을 다루는 분야인 금융권에서도 중요하다"며 "금융 회사가 원하는 AI 개발 활용 목표를 달성하게 하겠다"고 강조했다.

2024.08.29 15:43조이환

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

삼성 파운드리, 2나노 3세대 공정 2년내 구현..."고객이 다시 찾게 하자"

꽁꽁 얼었던 상반기 채용 시장...하반기엔 풀릴까

‘9천mAh’ 괴물 배터리폰, 내년에 나올까

실리콘밸리 뜻대로 안 됐다…美 상원, 'AI 규제 유예법' 삭제

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.