• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
AI페스타
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 법'통합검색 결과 입니다. (150건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[기고] 인공지능 시대, 무분별한 중복 규제 지양해야

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 규제의 근간이 될 수 있는 인공지능기본법(AI기본법)이 지난 1월 국회에서 정부로 이송돼 공포됨에 따라 내년부터 본격적인 시행을 앞두고 있다. 이같은 상황에서 프라이버시 분야에서의 AI 규제에 관한 법안도 새롭게 발의됐다. 지난달 31일자 개인정보 보호법 일부개정법률안이 바로 그것이다. 공개된 주요 내용에 따르면 개인정보보호위원회의 심의·의결을 거친 경우 적법하게 수집한 개인정보는 AI 개발을 위해 활용할 수 있게 된다. 이 과정에서 정보주체의 권리 침해가 발생하지 않도록 사전 및 사후적 조치도 마련됐다. 다시 말해 사전적으로 개인정보 처리방침을 통한 투명성 확보 조치를 이행하도록 하고 사후적으로는 개인정보보호위원회의 주기적인 관리 및 점검을 통해 개인정보의 안전성을 확보하겠다는 계획이다. 이는 개인정보보호위원회가 올해 6대 핵심 추진과제 중 하나로 세운 AI 시대 개인정보 규율체계 혁신 과제와 궤를 같이 한다. 이미 현행 개인정보 보호법 제15조 제4항은 당초 수집 목적과 합리적으로 관련된 범위 내에서는 안전성 확보 조치를 취하였는지 여부 등을 고려해 정보주체의 동의 없이도 개인정보를 추가적으로 이용할 수 있도록 규정해 두고 있다. 이에 따라 특정 서비스 제공 목적으로 수집한 개인정보를 AI 서비스 개발에 이용하는 행위는 현재도 충분히 가능하다고 판단된다. 개인정보보호위원회 역시 AI 시대 안전한 개인정보 활용 정책방향을 통해 위와 동일한 입장을 표명한 바 있다. 이번 개정안은 주로 기본 서비스 관련 개인정보를 관련이 없는 기타 서비스 개선이나 신규 서비스 개발을 위해 이용하는 경우에 대비한 것으로 이해된다. 다시 말해 다른 서비스나 신규 서비스의 경우 기존 서비스 개선에 비해 정보주체의 예측가능성이 떨어질 것이므로, 이를 위한 AI 개발에 대해서는 보다 엄격하게 개인정보보호위원회의 심의·의결을 요구하겠다는 취지다. 규제의 강도 측면에서 합리적인 규제라고 생각된다. 다만 세부적인 규제 내용은 추가적인 검토를 통해 완성해 나가야 할 것이다. 내년부터 시행 예정인 AI기본법은 이미 일부 AI에 대해 투명성 확보 의무 및 안전성 확보의무를 부과하고 있다. 이에 따라 개인정보 보호법 개정안을 통해 규율되는 투명성 확보 조치와 안전성 확보 조치 역시 단순한 중복 규제에 그치지 않도록 해야 한다. 이를 위해 제도 시행 전부터 부처 간 협력을 통해 각 규제의 유기적인 정착을 도모해야 한다. 향후에는 프라이버시 분야 외에 다른 부처에서도 다른 법안을 통해 AI에 관한 규제를 연이어 도입할 것으로 예상된다. AI와 같이 광범위한 분야에서 사용될 수 있는 기술에 대해 각 부처별로 관심을 갖고 규제를 도입하려는 시도 자체는 어찌 보면 당연한 것이다. 다만 앞서 본 것처럼 AI가 화두로 떠오른다고 해서 각 부처가 무분별하게 중복 규제를 하는 상황은 반드시 피해야 한다. 규제가 필수적이라 하더라도 사전에 별 다른 논의 없이 부처별 규제들이 우후죽순처럼 도입되기만 한다면 수범자 입장에서는 큰 혼란이 초래될 수밖에 없다. 일례로 광고성 정보 전송과 관련한 정보통신망법에 따른 규제와 개인정보 보호법에 따른 규제 역시 과도한 중복 규제로 여기는 여론이 많았다. 두 규제를 통합하려는 시도는 줄곧 있어 왔지만 아직까지 혼란은 이어져 오고 있다. 그 외에 지난 2020년 데이터3법을 통합하려는 시도에도 불구하고 복잡하게 얽힌 문제로 개인정보 보호법과 신용정보법 간의 통합은 무산되었다. 이같이 처음부터 규제가 여러 갈래로 흩어져 있는 상황에서는 중복 규제가 발생할 것이 우려된다. 다만 나중에 이를 다시 주어 담는 통합작업을 하는 것 역시 너무나 어려운 작업임은 그간의 선례에 비추어 볼 때 자명하다. 그렇다고 과도한 중복 규제를 그대로 두는 것은 사업자들에게 짐을 돌리는 것밖에 되지 않는다. 동시에 규제기관 간에 서로 눈치만 보며 상황을 애매하게 방치하는 것 역시 법치국가에서 허용해서는 안 된다. 어려운 시국 속에서도 AI기본법이 극적으로 국회에서 통과된 만큼 이 법안이 누더기 규제가 되지 않도록 제도 도입 초기부터 각 부처 간 원활한 협의를 통해 유기적인 규제 로드맵을 완성하기를 기대해 본다.

2025.02.14 15:41법무법인 태평양 이준호

'AI 안전성 확보 전략 포럼' 열린다

한국데이터법정책학회는 20일 오후 3시 한국프레스센터에서 'AI 안전성 및 신뢰성 확보를 위한 전략'이라는 주제로 제14회 AI 윤리법제포럼을 개최한다. 이날 포럼에서는 서울여대 정보보호학부 교수, 인공지능윤리정책 포럼 위원장을 지내고 현재 AI안전연구소 초대 소장을 맡고 있는 김명주 소장이 주제 발표를 맡았다. 포럼 회장인 이성엽 교수는 “한국에서도 AI 기본법상 안전성, 신뢰성 확보 규정이 도입됐고, 최근 딥시크 층격으로 인해 AI를 통한 정보보안 위험이 증대되고 있는 상황에서 AI 안전성과 신뢰성 확보를 책임지고 있는 기관의 전략을 듣고 향후 과제를 논의하는 의미 있는 세미나가 될 것이다”고 밝혔다. 한편 AI 윤리법제포럼은 AI 시대의 법제도와 윤리 이슈에 대해 논의하기 위한 전문가 모임으로 정기적으로 생성형 AI의 주요 윤리, 법제, 정책 이슈에 관한 세미나를 개최하고 있다. 1회 포럼에서 ▲생성 AI에서 윤리 이슈를 시작으로 ▲생성형 AI의 기술적 이해 ▲생성형 AI의 저작권 이슈와 과제 ▲생성형 AI의 개인정보의 이슈와 과제 ▲생성형 AI의 경쟁상의 이슈와 과제 ▲주요국의 AI 규제 현황과 시사점 ▲생성형 AI에서 가짜뉴스의 이슈와 과제 ▲생성형 AI에서 시큐리티 이슈와 과제 ▲디지털 통상과 인공지능 ▲생성형 AI 기술, 산업 동향과 시사점 ▲한국의 AI 반도체, 클라우드 전략 ▲AI 규제법의 국내외 동향 분석, 평가와 향후 과제 ▲AI 법제 및 거버넌스 개선방향 등의 주제를 다뤘다.

2025.02.13 14:22박수형

유상임 과기정통부 장관 "올해 내 GPU 1만 5천 개 확보"

정부가 오는 2030년까지 GPU 3만개를 구입하기로 했던 일정을 4년 정도 앞당겨, 2026년 말이나 늦어도 2027년 초까지 모두 확보하기로 했다. 올해에만 1만 5천개를 구입할 계획이다. 유상임 과기정통부 장관은 4일 정부서울청사에서 '25년도 과기정통부 핵심과제 추진상황' 대국민 보고를 위한 브리핑에서 이같이 언급했다. 이날 과기정통부 기자단과의 질의응답은 '딥시크 등 AI' 현안에 집중됐다. 유 장관은 "챗GPT의 진화와 딥시크 충격 이후 2030년가서 GPU 3만 개를 확보해봐야 아무런 의미가 없다"며 "우선 광주 데이터센터 등에서 미리 쓸 수 있도록 일부를 선 구입한뒤 나중에 국가 차원에서 국가AI슈퍼컴퓨터 센터로 모으는 작업을 할 것"이라고 말했다. 유 장관은 또 "국내에서도 딥시크와 유사한 모델을 갖고 있는 기업이 10개 정도 된다. 다만 떨어지는 정확도는 개선하면 될 것"이라며 "올해 내 1만 5천개를 모두 확보할 계획"이라고 덧붙였다. 올해 내 한국과학기술정보연구원은 슈퍼컴퓨터 6호기를 도입하며 GPU 8천800개를 확보할 계획이다. 이에 앞서 진행한 브리핑에서 유 장관은 과기정통부의 올해 사업계획을 밝히며 이달 내 AI컴퓨팅 인프라 발전전략을 공개할 것이라고 언급했다. 또 오는 3월에는 민관합동 양자전략위원회도 출범시킬 계획이다. 과기정통부는 AI사업기반 확충의 핵심인 국가 AI컴퓨팅 센터 구축사업 설명회를 오는 7일 개최한다. 오는 28일까지 사업참여의향서를 제출하는 기업·기관 등에 공모지침서를 제공한다. 이와함께 이달 말에는 ▲AI컴퓨팅 인프라 확충 ▲데이터센터 규제개선 등을 포함하는 'AI컴퓨팅 인프라 발전전략'을 공개할 예정이다. 핵심 전략기술 신속 확보를 위한 집중 지원도 이루어진다. 당장 이날 오후 '1조원 규모의 과학기술혁신펀드' 조성을 위해 전담은행 및 펀드 운용사와 양해각서(MOU) 교환이 진행된다. 과기정통부는 올해 우선 2천500억 원 이상으로 민간펀드를 조성, 12대 국가전략기술 혁신기업과 국가R&D 기술사업화 기업 등에 투자할 계획이다. 양자분야 범부처 역량 결집에도 적극 나설 계획이다. 확정되진 않았지만, 오는 3월 '민관합동 양자전략위원회'를 출범시켜, 양자기술개발과 산업육성을 가속화한다는 복안이다. 또 같은 달 국가전략기술 등 선도형R&D에 대한 투자를 강화하고 게임체인저 분야 최적의 투자전략을 제시하는 2026년도 국가연구개발사업 투자방향도 발표한다. 정부 국제협력R&D 사업을 분석한 뒤 최적의 투자분야와 협력파트너를 모색하는 '글로벌R&D 2.0 전략'도 이달 내 마련한다. 가계통신비 부담 경감 등 통신분야 민생지원에도 나선다. 이달 내 알뜰폰 도매대가 인하를 위한 관련 고시 개정을 행정예고한다. 3월엔 국민의 합리적 통신 요금제 선택을 지원하기 위해 '최적요금제 고지제도' 도입을 위해 전기통신사업법 개정을 추진한다. 지역 소상공인의 성장을 지원하는 지역채널 커머스방송 제도화를 위해 케이블TV와 홈쇼핑 등 이해관계자 협의(2월)와 스미싱 피해 예방을 위해 스미싱 발송을 사전차단하는 엑스레이(X-Ray) 시스템 시범사업을 추진한다. 엑스레이 시스템은 이용자가 문자 중계사/재판매사에 대량문자 발송을 요청하면, 문자 내용에 스미싱URL이 포함돼 있는지 여부를 판단하는 시스템이다. 마지막으로 범부처 기술사업화 생태계 혁신, R&D 시스템 개선을 위해 가칭 '국가R&D 기술사업화 전략'을 오는 3월 내 발표한다. 이외에 이공계 대학원생들을 위한 연구생활 장려금 사업 공모를 2월부터 개시한다. 또 출연연 자율성, 투명·윤리경영을 위한 규정 개정도 이달 내 마무리지을 계획이다. 유상임 장관은 “엄중한 정국상황에서 어려운 민생경제를 지원하고, 경제회복에 기여하기 위해 모두가 무거운 책임감을 갖고 최선을 다하고 있다"며 " 핵심과제들이 국민의 삶과 산업현장에서 체감되도록 꼼꼼하게 점검하고 국민들께 소상히 설명드릴 것”이라고 밝혔다.

2025.02.04 12:37박희범

英, AI로 아동 성적 이미지 생성하면 처벌

영국 정부가 인공지능(AI)으로 아동 성 학대 이미지를 생성하는 행위를 불법으로 규정하기 위한 법안을 발의했다. 3일 BBC 등 외신에 따르면 영국이 전 세계에서 처음으로 AI 성 학대를 법적으로 처벌하기 위한 법적 조치에 나섰다. 해당 법안은 '범죄 및 치안 법안(Crime and Policing Bill)'에 포함된 상태로, 이달 중 국회서 논의될 예정이다. 법 적용 대상은 아동 성 학대 이미지 생성하는 AI 도구 소지자다. 해당 도구로 관련 이미지를 제작하거나 배포, 사용법 안내 행위도 불법이다. 아동 성 학대 콘텐츠 웹사이트를 운영하는 행위도 마찬가지다. 정부는 수사 시 범죄와 관련한 디지털기기 보안 잠금을 임의로 해제할 수 있다. 다수 외신은 온라인 범죄자가 AI로 아동 성 학대 자료를 제작하는 사례가 증가한 가운데 영국 정부가 나선 것으로 분석하고 있다. 인터넷워치재단에 따르면 지난해 관련 이미지 보고 수치가 작년보다 5배 증가한 것으로 나타났다. 그동안 전 세계에서 아동이 노골적인 모습으로 등장하는 콘텐츠 제작·배포가 금지였다. 다만 AI를 통해 해당 콘텐츠를 생성할 때 구체적인 법 적용이 어려웠다. 이에 영국 정부는 AI로 아동 성 착취 콘텐츠를 만든 제작자에게도 명확한 처벌을 내리기 위해 나선 것이다. 예벳 쿠퍼 영국 내무장관은 "온라인뿐 아니라 오프라인에서도 아동 성 학대를 근절하는 것이 사이버 범죄로부터 대중을 강력히 보호할 방법"이라고 말했다.

2025.02.03 10:16김미정

"AI 영향력 키우려 꼼수 부렸나"…오픈AI 투자한 MS, 美·英 규제 당국 압박 거세져

마이크로소프트(MS)와 '챗GPT' 개발사 오픈AI의 파트너십에 대해 미국과 영국 규제당국의 압박이 거세지는 모양새다. 20일 테크크런치, 블룸버그통신 등 주요 외신에 따르면 미국 연방거래위원회(FTC)는 지난 17일 내놓은 보고서에서 MS의 오픈AI에 대한 130억 달러(약 19조원) 규모의 투자를 두고 반독점법 위반을 우려한 것으로 전해졌다. MS의 클라우드 컴퓨팅에서의 지배력이 초기 인공지능(AI) 시장으로 확장할 수 있다고 본 것이다. 클라우드 컴퓨팅 시장 점유율 2위인 MS는 지난 2019년부터 오픈AI와 파트너십을 체결하고 대규모 투자를 단행해 지분 49%를 확보했다. 당초 오픈AI와의 파트너십 영향이 클라우드 사업에 국한될 것이라는 예상과 달리 소프트웨어 라이선스, AI 제품, 사이버 보안 등 MS의 전반적인 사업 영역으로 지배력이 확대됐다는 지적이 나오고 있다. 현재 MS는 오픈AI 파트너십을 통해 연간 10억 달러(약 1조4천억원) 매출을 올리고 있다. 또 AI 분야에서만 연간 30억 달러(약 4조3천억원)의 매출을 기대하고 있다. 이 같은 분위기 속에 FTC는 MS의 오픈AI 투자가 AI 개발사들이 향후 MS에 의해 완전히 인수될 위험을 높인다고 봤다. 앞서 영국 경쟁시장국(CMA)도 MS의 오픈AI 투자뿐 아니라 인플렉션AI, 미스트랄AI 투자에 대한 반독점법 위반 여부를 검토하며 압박 수위를 높인 바 있다. FTC는 아마존과 구글이 AI 스타트업 앤트로픽에 대해 투자하는 것도 반독점법 위반 가능성이 높다고 봤다. 아마존과 구글은 앤트로픽에 대해 각각 80억 달러와 20억 달러를 투자한 바 있다. 업계에선 빅테크들이 이 같은 움직임을 통해 AI 시장을 독점하면서 새로운 후발주자 탄생을 어렵게 만들고 있다고 지적했다. '챗GPT'가 생성형 AI 열풍을 일으킨 이후 2년 동안 주요 AI 스타트업들은 비용이 많이 들고 컴퓨팅 집약적인 기술 개발을 지원받기 위해 빅테크 기업들에 의존해 온 바 있다. 이를 두고 FTC는 빅테크 기업들이 이런 스타트업들에 투자한 자금 중 일부를 자신들의 제품과 서비스에 사용하도록 요구하고 있다고 지적했다. 아울러 이런 파트너십이 소중한 AI 인재를 대기업 중심으로 집중시키고 칩 개발과 모델 훈련, 데이터를 대기업이 독점적으로 확보할 가능성을 높인다고 우려했다. FTC 리나 칸 의장은 성명을 통해 "FTC 보고서는 빅테크 기업들의 파트너십이 어떻게 잠금 효과(lock-in·다른 제품 선택에 제한을 두는 현상)를 만드는 지를 보여준다"며 "스타트업들이 핵심적인 AI 자원을 잃으며 민감한 정보를 노출해 공정한 경쟁을 저해할 수 있는지에 대해서도 조명하고 있다"고 말했다. FTC는 지난해 이들 빅테크 기업의 AI 스타트업에 대한 투자에 대해 조사를 해왔다. 이 조사 결과는 향후 조치에 대한 정보를 제공하는 데 사용될 수 있다. 보고서는 "빅테크 기업 중 한 곳이 AI 스타트업과 거래 과정에서 기밀인 재무 성과 정보에 접근할 수 있었다"며 "또 다른 계약에서는 AI 스타트업의 핵심 자산인 모델 출력 결과에 대형 빅테크 기업이 접근할 수 있도록 허용됐다"고 우려했다. 법무부 반독점부서 부차관보를 역임한 로저 P. 알포드 노트르담 로스쿨 법학 교수는 "빅테크 기업이 소규모 기업 인수를 파트너십, 투자 등으로 반독점 심사를 회피하는 경우가 발생하고 있다"며 "과도한 규제는 혁신을 제한할 수 있지만, 과소 규제는 반경쟁적인 기술 관행의 문을 열어주고 소비자 피해로 나타날 수 있다"고 지적했다.

2025.01.20 09:56장유미

EU, AI법 위반시 최대 '매출 7% 벌금'...기업들 비상

가트너(Gartner)가 발표한 'EU AI법 준비를 위한 1단계: 발견과 목록화' 보고서에 따르면, 2024년 말부터 단계적으로 시행되는 EU AI법이 기업들에게 막대한 재정적 리스크를 안길 것으로 전망된다. EU AI법의 단계별 시행 일정 공개 EU AI법은 2025년 2월부터 단계적으로 시행된다. 첫 단계로 2025년 2월부터 금지된 AI 시스템에 대한 규제가 시작되며, 2025년 8월부터는 범용 AI와 처벌 규정이 적용된다. 2026년 8월에는 대부분의 규정이 시행되고, 최종적으로 2027년 8월에는 Article 6.1과 Annex II에 해당하는 규정이 시행된다. 이러한 단계적 접근은 기업들이 충분한 준비 기간을 가질 수 있도록 설계되었다. AI 위험도별 규제 체계 상세 공개 EU AI법은 AI 시스템을 위험도에 따라 세 가지 범주로 분류한다. '금지된 AI'는 사용자의 자유의지를 침해하거나 '사회적 점수 매기기'에 사용되는 시스템으로, 법 집행 목적 등 극히 제한적인 예외를 제외하고는 전면 금지된다. '고위험 AI'는 인간에게 영향을 미치는 대부분의 AI 기술이 해당되며, 엄격한 요구사항을 준수해야 한다. '저위험 AI'는 AI 기반 추천 시스템이나 스팸 및 바이러스 필터 등이 포함되며, 재고 관리나 문서화 등 비교적 가벼운 요구사항이 적용된다. AI 도입 유형 분류와 대응 전략 가트너는 기업의 AI 도입을 네 가지 유형으로 분류했다. 첫째는 '와일드 AI'로, 직원들이 업무를 위해 공개된 AI 도구를 사용하는 경우다. 둘째는 '임베디드 AI'로, 기업이 사용하는 솔루션에 내장된 AI 기능을 의미한다. 셋째는 '하이브리드 AI'로, 기성 AI 모델과 기업 데이터를 결합한 형태이며, 마지막으로 '인하우스 AI'는 기업이 자체적으로 개발한 AI 시스템을 말한다. EU AI법의 추가 규제 요구사항 EU AI법은 특정 AI 기반 애플리케이션에 대해 위험성 평가, 투명성 의무, EU 전역 데이터베이스 등록을 요구한다. 특히 시스템적 위험을 수반하는 최고 성능의 범용 AI에는 추가적인 의무 요구사항이 적용된다. 기업들은 이러한 요구사항을 준수하기 위해 자사의 AI 시스템을 철저히 점검하고 필요한 조치를 취해야 한다. 기업의 실질적 대응 방안 가트너는 기업의 효과적인 AI 시스템 관리를 위해 구체적인 실행 방안을 제시했다. 우선 기업 아키텍처, 제3자 리스크 관리, 변경 관리, 조달 프로세스를 적절히 수정하여 새로운 AI 기능과 서비스의 도입을 지속적으로 모니터링해야 한다. 완벽한 발견보다는 점진적인 진행이 중요하며, 일반개인정보보호법(GDPR) 준수를 위해 작성된 처리활동기록(RoPA)과 개인정보영향평가(PIA)를 활용하면 발견 및 목록화 과정을 상당히 단축할 수 있다. AI 시스템 카탈로그화를 위한 구체적 행동 지침 기업들은 각 AI 시스템에 대해 상세한 정보를 수집하고 문서화해야 한다. 시스템명, 처리하는 개인정보의 종류(특히 인종, 민족, 정치적 성향, 성별, 성적 지향, 종교적 신념, 노조 가입 여부, 유전자, 생체인식, 건강 데이터 등 민감정보), 처리 목적, 관련 업무 프로세스, 벤더 정보, 개인정보 처리의 법적 근거 등을 포함해야 한다. 가트너는 데이터 중심의 접근을 권장하며, 특히 민감한 개인정보를 처리하는 인사나 마케팅 부서의 AI 시스템을 우선적으로 점검할 것을 조언했다. EU 법률 체계와의 연관성 EU AI법은 기존의 다양한 EU 법률과 연계돼 있다. 기계류 지침, 장난감 안전 지침, 의료기기 규정, 민간항공보안 규정 등 17개 이상의 EU 법률이 AI법과 직접적으로 연관되어 있다. 이러한 기존 EU 법률의 적용을 받는 AI 시스템은 대부분 고위험 AI로 분류될 가능성이 높다. 따라서 기업들은 자사의 AI 시스템이 이러한 법률과 관련이 있는지 세심하게 검토해야 한다. ■ 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다.

2025.01.18 17:28AI 에디터

[AI는 지금] AI 기본법 정비단 출범…업계 "고영향 AI 정의 신중해야"

과학기술정보통신부가 인공지능(AI) 기본법 하위법령 정비단을 출범하며 AI 산업 육성과 신뢰 기반 조성을 본격화한다. 국내 AI 업계는 이번 정비단 출범이 산업 진흥으로 이어지길 기대하는 동시에 고영향 AI의 정의와 평가 기준에 대한 명확성을 요구하고 있다. 과학기술정보통신부는 지난해 12월 국회에서 통과된 AI기본법이 내년 1월부터 차질 없이 시행될 수 있도록 하위법령 정비단을 통해 시행령 초안을 신속히 마련할 계획이라고 15일 밝혔다. AI 기본법은 지난 2020년 처음 국회에 발의된 이후 오랜 논의를 거쳐 제정됐다. 이 법은 유럽연합(EU)의 AI 법안에 이어 세계 두 번째로 제정된 사례로, AI로 인한 위험을 예방하고 기술 발전을 촉진하는 내용을 담고 있다. 이번에 구성된 하위법령 정비단은 AI 기본법의 핵심 쟁점인 고영향 AI와 생성형 AI의 세부 기준을 구체화하며 법안의 실효성을 높이는 것을 목표로 한다. 고영향 AI란 인간 생명, 신체 안전, 기본권에 중대한 영향을 미칠 수 있는 AI 시스템을 뜻한다. 정비를 위해 과기정통부를 비롯해 국가AI위원회 법제도분과, 산업계 초거대 AI추진협의회, 학계, 법조계 전문가 등이 참여한다. 정비단은 워킹그룹 3개 분과로 구성돼 조항별 세부 내용을 구체화한다. 워킹그룹 1은 AI 안전성 확보 의무와 국내대리인 지정을 담당하고 워킹그룹 2는 AI 투명성 확보 의무, 영향평가, 신뢰성 검증과 인증을 다룬다. 워킹그룹 3은 고영향 AI 기준 설정, 사업자 책무, 사실조사를 주요 검토 대상으로 삼는다. 현재 하위법령에는 ▲ AI기본법 시행령 및 시행규칙 ▲ 고영향 인공지능 기준과 예시에 관한 가이드라인 ▲ 고영향 인공지능 사업자 책무 가이드라인 ▲ 인공지능 안전성 확보 의무 고시 ▲ 인공지능 영향평가 가이드라인 ▲ 인공지능 투명성 확보 의무 가이드라인이 포함됐다. 추후 규제 샌드박스, AI 신뢰성 검증, 사실조사 및 분쟁조정 관련 항목도 추가될 가능성이 높다. 송상훈 과학기술정보통신부 정보통신정책실장은 "이번 법 제정은 우리나라가 AI G3 강국으로 도약할 법적 기반을 마련했다는 점에서 큰 의미가 있다"며 "기업의 예측 가능성을 높이고 투자를 촉진하기 위해 하위법령 정비에 속도를 낼 것"이라고 밝혔다. 국내 AI 업계는 하위법령 정비단 출범을 반기는 분위기다. 제도가 부재해 자의적인 법리해석이 이뤄질 가능성이 현저히 줄어들어 기업이 정해진 범주 내에서 자유롭게 활동을 할 수 있게 됐기 때문이다. 한 AI 업계 관계자 X씨는 "기본법 하위 법령들이 정비되면 법제도상 불확실성이 상당 부분 해소되면서 안정적인 산업 발전이 가능해질 것으로 기대한다"며 "다만 실현되지 않은 위험을 예단하거나 AI 활용 분야와 무관하게 서비스 이용자 규모 등 외적 요소들로 규제 범위를 잡는 등 과잉 입법 이슈가 없도록 향후 논의가 이루어지길 바란다"고 밝혔다. 또 업계 일각에서는 고영향 AI의 정의와 평가 기준의 명확성을 가장 중요한 과제로 보고 있다. AI 업계 관계자 Y씨는 고영향 AI 정의의 중요성을 강조하며 "AI 기본법이 다루는 '고영향'이라는 개념은 이를 서비스하는 기업들에 직접적인 영향을 미칠 것"이라며 "정의를 구체화하는 것이 업계에 실질적인 도움이 될 것"이라고 말했다. 또 다른 업계 관계자 Z씨는 미국 캘리포니아의 사례를 들며 고영향 AI의 평가 방식과 과정이 과학적으로 이뤄져야 할 필요성을 강조했다. Z씨는 "캘리포니아 주지사가 지난해 주 AI법인 'SB 1047' 법안에 거부권을 행사한 사례가 대표적"이라며 "당시 주지사는 단순히 모델의 패러미터가 크다는 이유로 AI를 고위험으로 분류하는 것은 비과학적이라는 비판을 제기했다"고 설명했다. 이어 "의료 분야의 AI처럼 매개변수가 작아도 생명과 안전에 영향을 미칠 수 있는 사례가 있다"며 "분야별 특성을 반영한 고영향 AI의 정의와 평가 기준을 마련할 필요가 있다"고 밝혔다.

2025.01.15 12:14조이환

AI기본법 하위법령 정비단 출범···"고영향AI 기준 신중 마련"

과학기술정보통신부(과기정통부)는 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법)' 하위법령 정비단을 본격 출범한다고 15일 밝혔다. AI기본법은 지난 2020년 7월 국회에서 법안이 처음 발의된 이후 4년이 넘는 기간 동안 다양한 의견을 수렴하며 논의된 법안으로, 22대 국회에서 여야 합의를 거쳐 19개 법안을 병합하고 작년 12월 26일 본회의를 통과했다. 이후 올 1월 14일 국무회의 의결을 거쳐 1월 중 공포될 예정으로 2026년 1월부터 시행한다. 법안은 유럽연합(EU)에 이어 세계에서 두 번째로 제정한 법안이다. 인공지능에 관한 국가 차원의 거버넌스 체계를 정립하고, 인공지능 산업을 체계적으로 육성하며, 인공지능으로 인해 발생할 수 있는 위험을 사전에 예방하기 위한 내용으로 구성됐다. 과기정통부는 AI기본법 제정 효과를 민간에서 조속히 체감할 수 있게 위해 하위법령 정비단을 구성, 운영한다. 정비단에는 과기정통부와 산업계‧학계‧법조계 전문가를 비롯해 국가AI위원회 법제도분과도 함께 참여한다. 법제처(미래법제혁신기획단)도 정비단 회의에 참여해 하위법령 제정에 대한 컨설팅을 지원한다. 정비단은 15일 출범 회의를 거쳐 시행령 초안을 신속히 마련할 예정이다. 특히, 법안에 포함한 고영향AI, 생성형AI 등에 대해서는 해외 입법동향, AI 경쟁력 강화라는 정책목표 달성 등을 고려해 그 기준과 적용사례를 구체화해 나갈 것이다. 이를 통해 AI기본법이 기업의 불확실성을 해소하고, 민관의 대규모 투자를 촉진하는 등 우리나라가 AI G3 강국으로 도약할 수 있는 법적 기반이 될 수 있게 할 계획이다. 과기정통부는 우선 정비단 전문가를 중심으로 시행령 초안을 마련한 뒤 관계부처 및 이해관계자 의견수렴을 폭넓게 진행하는 등 긴밀한 소통을 추진할 방침이다. 아울러, 하위법령 마련과 병행해 법에 근거한 주요 가이드라인 및 고시에 대한 별도 태스크포스(TF) 3개(각 10여명의 민간전문가 참여)도 함께 운영할 예정이다. 특히, 고영향 AI 기준과 예시에 관한 가이드라인의 경우 분야별 전문성이 특히 중요하다는 점을 고려, 국가AI위원회를 중심으로 산학연 전문가, 관계부처 등이 참여해 분야별로 초안을 마련하고 이해관계자 의견수렴을 진행한다. 송상훈 과기정통부 정보통신정책실장은 “인공지능을 둘러싼 치열한 글로벌 경쟁 속에서 우리나라가 혁신과 안전을 조화롭게 반영한 AI기본법 제정을 함으로써 AI G3 강국으로 도약할 수 있는 기반을 마련했다"면서 “기업의 예측가능성을 제고하고, 투자를 촉진하기 위해서는 하위법령 제정에 서두를 필요가 있다”고 밝혔다. 이어 “하위법령 정비단 운영과 민간이 체감할 수 있는 각종 산업 지원 시책의 수립을 속도감 있게 추진해 나가는 등 최선의 노력을 기울이겠다”고 말했다.

2025.01.15 12:00방은주

방통위, AI 이용자 보호 대책 세운다

방송통신위원회가 인공지능(AI) 산업 발전과 동시에 이용자 보호를 위한 조치에 나선다. AI 이용자보호 종합계획을 수립하고, '생성형AI 이용자보호 가이드라인'과 AI 이용자보호법을 제정한다는 계획이다. 방통위는 14일 이같은 내용의 2025년도 업무계획을 최상목 대통령 권한대행 경제부총리에 보고했다. 생성형 AI 이용자보호 가이드라인은 서비스의 설명가능성을 보장하고, 필터링과 신고 등 기술적 관리적 조치 등의 구체적 방법을 제시하게 된다. 또 AI 이용자보호법은 AI 유형별 차등 규제와 이용자보호 업무평가, 분쟁조정제도 등을 규정하게 된다. 아울러 생성형 AI로 인한 위험요소를 신고, 검증하고 이를 공유할 수 있는 이용자 참여형 포털을 구축키로 했다. 디지털 불법 유해정보 차단을 위한 종합적 대응도 강화한다. 마약이나 도박 등 민생과 직결된 불법정보가 신속하게 차단될 수 있도록 절차를 개선하고, 딥페이크 성범죄물 등 불법촬영 의심 영상물을 '선(先) 임시차단, 후(後) 심의' 할 수 있도록 법적 근거를 마련한다. 허위조작정보 확산을 방지하기 위해 민관 합동 자율규제 권고안을 마련해 사업자의 자정활동을 유도하고, 정보 생성과 유포 등 단계적 규제 체계를 정립한다. 불법스팸 근절을 위해 범죄수익 몰수, 과징금 부과 등 제재를 강화하고, AI 스팸 필터링 개선, 해외문자 차단함 신설 등 기술적·관리적 보호조치를 강화하여 불법스팸 차단의 실효성을 높인다. 방송의 사회적 책임 강화를 위해 방송사 재허가 재승인 심사나 방송평가 시 저출생 위기 극복, 재난피해 예방프로그램 편성내역 등을 반영해 공익성 심사 평가를 강화하고, 재허가 재승인 조건 이행 여부를 점검해 허가 승인 제도의 실효성을 제고할 계획이다. 재난방송의 체계적인 관리와 지원을 위해 '재난방송관리지원법' 제정을 추진하고, 재난방송 사각지대 해소를 위해 수신환경 실태조사와 도로 터널 등의 중계설비 설치를 위한 기술지원 컨설팅을 제공한다. 한국판 디지털서비스법인 가칭 온라인서비스 이용자보호법을 제정해 플랫폼 상 불법 유해정보 유통 방지, 콘텐츠 노출기준 공개 등 플랫폼 사업자의 사회적 책무를 강화한다. 방송과 OTT 등 신·구 미디어의 동반 성장을 지원하고 일관된 규율체계를 정립하기 위해 개별법에 분산된 규제를 통합 정비하는 미디어 통합법제 마련을 추진한다. 차세대 방송의 지속 가능한 혁신성장을 위해 UHD, DMB, AM 라디오 등 기존 지상파 매체의 정책 개편 방안을 포함한 방송혁신 전략을 수립한다. 위치정보 산업의 중장기 발전 로드맵으로서 '위치정보 이용 활성화 계획'을 수립해 규제 개선, 산업 지원, 인력 양성 등 분야별 지원 전략을 마련한다. 방송사의 규제부담 완화를 위해 방송사업 허가 승인 시 조건 등 부과 원칙 및 사유를 공개하고 허가 승인 유효기간 범위를 확대하고, 소유 겸영규제와 광고 편성규제를 완화해 방송산업의 경쟁력과 자율성을 강화한다. 방송콘텐츠의 해외유통 활성화를 위해 새해 상반기 중 캐나다와 시청각 공동제작협정을 체결하고, 공동제작비 지원, 국제 컨퍼런스 개최 등을 추진한다. 또한 토종 OTT 사업자의 해외진출 지원을 위해 해외시장과 이용행태 정보를 제공하고 '국제 OTT 포럼'을 개최한다. 단말기 유통법 폐지에 따라 하위 법령 정비 등 후속조치를 추진하는 동시에 단말기 유통시장의 불공정행위와 이용자 피해 방지를 위해 '단말기 유통환경 개선 종합시책'을 마련한다. 쇼핑, 배달, 교육 등 민생 밀접 플랫폼 서비스의 이용자 피해 유발 행위를 집중 점검하고, 다크패턴, 하이재킹 자동실행 광고 등 이용자를 기만하거나 선택권을 제한하는 행위에 대해서도 엄정 대응한다. 보편적 디지털 미디어 복지도 확대한다. 시각·청각장애인을 위한 맞춤형TV 지원을 확대한다. 또 장애인방송 품질 제고를 위해 품질 평가체계를 마련하고 시범평가를 실시하는 등 소외계층의 미디어 접근성을 강화한다. 아울러 전국 어디서나 미디어교육 서비스를 제공받을 수 있도록 시청자미디어센터를 차질 없이 구축하고, 센터 방문이 어려운 도서·산간 지역민과 장애인 등을 위해 '찾아가는 미디어 나눔버스'를 추가 운영할 예정이다. 김태규 방통위원장 직무대행은 “디지털 미디어 환경의 변화 속에서 가장 중요한 것은 국민이 안전하고 신뢰할 수 있는 이용 환경을 만드는 것”이라며 “방통위는 국민 보호와 권익 증진을 최우선 과제로 삼아 AI, 디지털 플랫폼, 방송 등 모든 영역에서 국민이 체감할 수 있는 정책을 구현하겠다”고 밝혔다. 이어, “현재 위원회 공백으로 인해 정책 추진에 어려움이 있지만, 방통위는 국민 불편을 최소화하고 위원회가 재구성되는 즉시 업무를 정상화할 수 있도록 실무적 준비를 철저히 하겠다”고 덧붙였다.

2025.01.14 16:00박수형

AI 패권시대, 글로벌 3강 도약 정부전략과 실행 방안은?

정치, 산업, 학계 전문가들이 한자리에 모여 국가 인공지능(AI) 경쟁력 강화를 위한 종합적인 전략을 논의했다. 글로벌 AI 패권 경쟁에서 우위를 점하기 위해 소버린 AI 역량 확보, 데이터 관리, 제도적 기반 마련 등 다각도의 접근 방안을 모색하며 대한민국 AI 산업 발전을 위한 이정표를 제시했다. 14일 서울 여의도 국회의원회관에서 열린 '글로벌 AI 3강을 위한 AI진흥 TF 2차 간담회'에서는 대한민국의 AI 경쟁력 강화와 글로벌 AI 강국으로의 도약을 위한 다양한 정책 및 실행 방안이 논의되었다. 정동영 민주당 AI진흥 태스크포스(TF) 단장이 주최한 이번 간담회는 포함한 정치, 산업, 학계 전문가들이 참여했다. 하정우 네이버 클라우드 AI 이노베이션 센터장이 관련 내용을 발제하고 차지호 의원이 진행을 맡았다. 정동영 단장은 "영국과 프랑스는 대규모 AI 투자 전략을 발표하며 국가 지도자가 직접 AI 발전을 지휘하고 있다"며 "반면 대한민국의 국가 AI 위원장은 윤석열 대통령인데, 현재 직무가 정지된 상태"라며 국내 AI 발전의 어려움을 지적했다. 이어 "하지만 대통령이 직무를 수행하지 못한다고 해서 국가의 AI 발전이 멈출 수는 없다"며 "국가의 미래가 걸린 문제인 만큼 글로벌 AI 3강 강국으로 도약하기 위해 초당적 협력과 지속적인 투자, 그리고 강력한 리더십이 필요하다"고 강조했다. 간담회 발제를 맡은 하정우 센터장은 글로벌 AI 경쟁 상황을 분석하며, "AI 기술은 단순한 기술적 도구를 넘어 경제와 안보에 직결되는 전략 자산으로 인식되고 있다"며 "각국이 자국 내 AI 역량을 키우는 이유에 대해 "글로벌 데이터 블록화와 AI 수출 규제 등의 변화 속에서 독자적 기술 확보는 국가 생존의 문제"라고 AI의 중요성을 강조했다. 하 센터장은 "미국, 중국과 같은 국가들은 AI를 군사, 경제, 공공 분야의 핵심 기술로 활용하고 있으며, 특히 미국은 AI 모델과 인프라 수출을 제한하며 전략적 자산으로 보호하고 있다"고 글로벌 AI 현황에 대해 밝혔다. 이러한 상황 속에서 "대한민국이 AI 강국으로 자리 잡기 위해서는 데이터를 기반으로 한 소버린(Sovereign) AI 역량을 확보해야 한다"고 주장했다. 그는 소버린 AI의 중요성을 "독자적으로 AI를 개발하고 운영할 수 있는 능력"이라고 정의하며 "이것이 없다면 해외 기술 의존도가 높아지고 국가 안보와 경제 경쟁력이 약화될 수 있다"고 경고했다. 이를 위해 데이터 확보, AI 반도체, 에너지 인프라 등 AI 생태계를 구성하는 요소들을 체계적으로 발전시켜야 한다고 제안했다. 또한 대한민국은 이미 네이버, LG AI 연구원과 같은 주요 기업이 높은 수준의 AI 기술을 보유하고 있어 충분한 가능성을 가지고 있다며 국가적 투자와 지원의 필요성을 강조했다. 이에 송상훈 과기정통부 정보통신정책실장은 정부의 AI 정책 방향을 소개하며, "민간 공동출자를 통해 국가 AI 컴퓨팅 센터를 설립하고, 국산 NPU를 활용해 기술 생태계를 활성화하겠다"고 발표했다. 또한 "AI 기본법 제정과 규제 개선을 통해 AI 경쟁력 강화를 위한 제도적 기반을 마련했다"며 "이를 기반으로 국내 AI 경쟁력 확보를 위해 최선을 다해 지원하겠다"고 밝혔다. 반면 김영환 의원은 AI 발전에 따른 사회적 불평등과 윤리적 문제를 지적하기도 했다. 그는 "AI는 경제적 격차를 확대할 가능성이 있으므로 포용적이고 책임 있는 AI 정책이 필요하다"고 주장했다. 또한, 공공 데이터의 가공 및 공개를 확대해 AI 발전에 기여해야 한다고 제안했다. 이에 대해 송상훈 실장은 "디지털포용법을 통해 AI와 같은 디지털 기술에 접근성을 높이고, AI 리터러시를 강화하여 불평등 문제를 완화하는 방안을 마련하고 있다"고 답했다. 또한, 다양한 AI 안전성 및 윤리 이슈에 대응하기 위한 정부의 노력도 언급했습니다. 이와 함께 하정우 AI센터장은 "AI가 국가적 자산인 만큼 포용성을 확대하는 동시에 독자적인 기술 역량을 갖추는 것이 중요하다"고 강조하며, AI 데이터 및 인프라를 강화하고 글로벌 협력을 통해 한국형 AI 생태계를 구축해야 한다는 의견을 덧붙였다. 차지호 의원은 간담회를 마무리하며 "AI는 단순한 기술적 혁신을 넘어 사회적 변화를 주도하는 핵심 기술"이라며 "간담회에서 논의된 다양한 의견과 제안이 대한민국이 글로벌 AI 강국으로 도약하는 데 중요한 밑거름이 될 것"이라고 말했다.

2025.01.14 15:11남혁우

[AI는 지금] AI 기본법 TF 발족…"산업 진흥·규제 사이 균형 찾기 과제"

'인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'의 구체적인 하위법령 마련을 위해 정부가 태스크포스(TF)를 출범시킨다. 이를 통해 AI 산업 발전과 국민 안전 간 균형을 맞추고 국제 표준에도 부합하는 규제와 진흥 방안을 마련하겠다는 계획이다. 국내 업계 전반에서는 환영의 목소리를 내고 있으나 일부에서는 과연 법안이 최선의 선택이었는지에 대한 의문도 제기되고 있다. 11일 업계에 따르면 과학기술정보통신부(이하 과기정통부)는 AI 기본법 시행령 제정을 위한 산학연관 태스크포스(TF)를 이달 중 발족한다. TF에는 국가인공지능위원회 법·제도 분과위원회, 관계부처, 산업계, 학계, 연구기관 등 전문가 그룹이 폭넓게 참여할 예정이다. TF의 핵심 논의 대상은 AI 기본법에서 강조한 '고영향 AI'의 정의와 규율 방안이다. 고영향 AI는 사람의 생명·안전 및 기본권에 중대한 영향을 미칠 가능성이 있는 시스템을 의미하며 이를 구체화한 가이드라인은 올해 6월까지 마련될 계획이다. 지난해 말 국회를 통과한 AI 기본법은 AI 사업자가 고영향 AI를 제공할 경우 사전 검·인증을 받도록 권고하고 관련 제품이나 서비스 이용 시 사용자에게 미리 고지할 것을 명시하고 있다. 과기정통부는 TF 논의를 통해 가이드라인 수립 과정에서 기업과 이용자의 의견을 적극 수렴하겠다며 AI 기술 발전과 법제의 조화를 추구하고 국제 표준과도 부합하는 규제 체계를 마련할 계획이라고 밝혔다. 이 같은 움직임에 국내 AI 업계는 기대감을 드러내고 있다. 그간 법률 공백으로 인해 생성형 AI나 빅데이터 서비스 등 신기술을 준비하는 기업들은 명확한 규제·지원 체계를 파악하기 어려웠고 투자자들도 법적 리스크를 우려해 선뜻 자금 투입을 결정하기 쉽지 않았다는 게 업계의 설명이다. 한 AI 업계 관계자 A씨는 "AI 산업에 대한 명확한 기준과 지원 방안을 담은 법안이 생겨 불확실성이 줄어들 것으로 보인다"며 "정부가 업계 이슈를 정리하고 방향을 제시해준다는 사실만으로도 큰 도움이 될 것"이라고 전했다. 다만 이러한 산업 현장의 기대는 그동안 규제가 부재했던 상황에서 비롯된 불확실성이 컸기 때문이라는 분석도 있다. 명확한 법적 기준이 없던 시기에는 각기 다른 해석과 더불어 정부의 입장을 지나치게 의식해야 하는 어려움이 있어왔다는 설명이다. 실제로 해외 업계에서는 사뭇 다른 의견이 나온다. 글로벌 테크기업 관계자 S씨는 "법안 통과 당시 해외 언론은 EU에 이어 한국이 두 번째로 AI '규제'를 통과시켰다고 보도하며 국내 AI 기술 발전을 저해할 소지가 있는지를 염려하는 분위기였다"며 "'가이드라인'이나 '행정명령' 같은 탄력적 방안이 더 효과적이지 않았을지 의문이 든다"고 덧붙였다. 현재 국가 차원에서 AI를 법률로 직접 규제한 사례는 한국이 EU에 이어 두 번째로 꼽힌다. EU는 지난해 3월 세계 최초의 포괄적 AI 규제인 'AI법'을 가결해 내년 8월 전면 시행할 예정이다. 이와 반대로 미국의 경우에는 연방 차원의 AI 관련 법안이 없으며 지난 2023년 발표된 AI 행정명령도 연방기관 지침 수준이어서 민간에 대한 처벌 조항은 포함되지 않았다. 일본 역시 가이드라인 중심의 '소프트 로(soft law)' 접근 방식을 채택하고 있다. 그럼에도 국내 업계는 이미 통과된 AI 기본법을 기반으로 산업 발전을 위한 구체적인 세부안 마련에 기대감을 표하고 있다. 한 업계 관계자는 "기본법이 국회를 통과한 만큼 이제는 산업 성장에 실질적으로 기여할 수 있는 구체적 안들이 발전하길 희망한다"며 "정부와 업계의 지속적인 협력을 통해 AI 생태계를 더욱 활성화할 수 있길 바란다"고 강조했다.

2025.01.11 14:30조이환

고려대 법학전문대학원, 데이터·AI법 전문과정 개설

고려대학교 데이터인공지능법 연구센터가 3기 '데이터 인공지능법 전문과정'을 개설한다고 7일 밝혔다. 고려대 법학전문대학원은 변호사 양성의 로스쿨 교육 외에 현대의 전문적인 다양한 주제에 대해 공개강좌(ESEL)를 운영해 관련 분야 종사자들을 재교육하고 있다. 이에 따라 개설된 전문과정이다. 디지털 기술 혁신으로 인해 데이터의 사회적 산업적 가치가 제 분야에서 인정되고 있으며 생성형 인공지능, 디지털 플랫폼 등 데이터의 활용에 따른 다양한 법적 사회적 문제가 전세계적으로 제기되고 있다. 특히 생성형 인공지능 기술은 기업과 개인에게 일상화가 이뤄지고 있으며 이에 따른 법적, 정책적 논의가 본격화되고 있다. 데이터 인공지능법 전문과정은 디지털 대전환에서 비롯하는 복잡다기한 법적 과제와 문제에 대해 강의 및 토론하는 강좌를 제공한다. 국가와 공공기관, 로펌, 사기업체 등 사회 각 분야에서 데이터와 인공지능 등에 관한 업무를 담당하는 공무원, 공공기관 및 사기업의 임직원, 변호사 등이 대상이다. 국내 최고의 데이터, 인공지능 전문가들이 강사진으로 참여하며 2기와 마찬가지로 1년 과정으로 개설돼 내실 있는 교과과정 운영과 원우 간 교류의 기회를 확대할 계획이다. 4월부터 11월까지 19주 35개 강좌와 워크샵, 공개세미나로 구성될 예정이다. 이 과정을 수료하는 경우 고려대 총장 명의의 수료증이 수여되고 고려대 총교우회 정회원 자격도 부여된다. 이성엽 주임 교수는 “지난해 12월 한국이 EU에 이어 세계 2번째로 인공지능기본법을 통과시켰고 1년 뒤 시행을 앞둔 상황에서 국내외 AI, 데이터법의 쟁점에 대한 강의와 토론을 통해 하위 법령 제정이나 기업의 인공지능법 대응에 도움을 줄 것으로 기대한다”고 말했다. 원서접수는 2월1일부터 2월28일까지다.

2025.01.07 13:46박수형

고동진 의원, 특별비자법 국회 제출..."반도체·AI 등 해외 S급 인력 유치해야"

국회 산업통상자원중소벤처기업위원회 소속 고동진 국회의원은 AI기술 분야와 반도체, 소프트웨어, 디스플레이, 바이오, 이차전지, 배터리 등 첨단전략산업의 해외 고급인재 유치를 위한 특별비자법(출입국관리법 개정안)을 국회에 제출했다고 7일 밝혔다. 최근 생성형 AI의 발전과 함께 AI 기술 인재확보 국가가 세계 경제를 주도하게 되면서 세계는 AI 패권 확보 및 관련 우수 인재 유치에 사활을 걸고 있고, 반도체, 소프트웨어, 디스플레이, 바이오, 이차전지, 배터리 등 첨단산업 분야의 기업 및 산업계에서는 해외의 고급 기술전문가 영입 및 유치를 강력히 희망하고 있다. 하지만 국내 인구 대비 해외전문인력 비중(0.09%)은 싱가포르(6.6%), 호주(0.3%), 일본(0.3%), EU(0.2%), 대만(0.2%) 등 해외 사례 대비 최저 수준이며, 국내의 해외인재 유입 매력도 순위(2020년 36위 → 2023년 43위)는 계속 낮아지고 있는 실정이다. 이런 상황에서, 미국, 영국, 호주, 대만, 싱가포르, 일본 등 세계 각국은 인공지능 기술과 첨단산업의 고급인재 유치를 위해 사증 발급 기준을 완화하는 동시에 절차를 간소화하는 정책을 본격 추진하고 있다. 이에 고동진 의원은 우리나라도 해외 고급인재 유치를 위해 법무부장관이 관계 중앙행정기관 및 지방자치단체와 협의해 대통령령이 정하는 기준과 절차 등에 따라 특별사증을 발급할 수 있도록 해, 사증 발급 기준과 절차를 완화 및 간소화하도록 하는 '출입국관리법 개정안'을 대표발의했다. 고 의원은 “현재 전세계의 주요 경쟁국들은 S급 첨단산업 인재 유치를 위해 사활을 걸고 경쟁을 하고 있는데, 우리나라의 경우는 현재까지 국내 양성 위주에 그쳤던 바 해외 인재 유치 노력은 상대적으로 부족했다”며 “해외 고급인재 유치 특별비자법을 시급히 통과시켜 대한민국의 혁신적인 산업 발전과 기술 개발을 이뤄내야 한다”고 강조했다.

2025.01.07 08:44장경윤

오픈AI, 영리법인 전환 '공식화'…경쟁사·전직원·시민단체 '반발'

오픈AI가 공익법인(PBC)으로의 전환을 공식화하며 영리 구조로의 전환을 본격 추진하고 있다. 이를 통해 대규모 자본 유치를 가능케 해 일반인공지능(AGI) 개발을 가속화한다는 계획이다. 30일 테크크런치 등 외신에 따르면 오픈AI는 기존 영리 자회사를 공익법인(PBC)으로 전환하고 비영리 조직의 자회사 통제권을 철회하겠다고 지난 27일 밝혔다. 이러한 변화는 새로운 조직 구조가 투자자들에게 더 나은 조건을 제공할 것이라는 판단에 따른 것이다. 오픈AI는 지난 2015년 '모두를 위한 AI'라는 설립 취지 아래 비영리 조직으로 설립됐다. 다만 지난 2019년 이후로는 연구 비용 문제로 인해 비영리 이사회가 통제하는 영리 자회사를 설립한 후 AI 개발을 진행해 왔다. 그럼에도 불구하고 기하급수적으로 증가하는 AI 개발 비용을 충당하기 위해 지난 9월부터는 비영리 조직에 공익법인의 통제권이 주어지지 않는 새로운 구조로 전환할 계획을 세운 것으로 알려졌다. 새로운 구조에서는 기존 투자 유치 시 적용됐던 수익 상한제가 철폐될 방침으로, 이에 따라 투자자 수익이 증가하고 보다 많은 자본을 유치하기가 용이해질 전망이다. 다만 완전 영리화 우려를 불식시키기 위해 비영리 조직이 공익법인(PBC)의 주식을 상당수 보유하게 할 예정이다. 구조 변경 과정에서 오픈AI의 최대 투자자인 마이크로소프트(MS)와의 이해관계도 주목된다. 양측은 이번 전환이 완료되면 마이크로소프트가 오픈AI의 지분을 얼마나 보유할지를 결정할 방안을 모색 중인 것으로 알려졌다. 경쟁 기업들과 동등한 조건에서 투자 유치 경쟁에 나서기 위한 것도 이번 전환의 주요 이유 중 하나다. 경쟁사인 xAI와 앤트로픽 등이 최근 대규모 투자 유치를 성공적으로 이루고 있는 AI 시장 상황을 반영한 결정이라는 설명이다. 오픈AI의 전환 계획에 대해 회사의 일부 전직원들은 안전성보다 상업성을 우선시하는 조직 문화에 대한 우려를 제기하고 있다. 전 연구원이었던 캐롤 웨인라이트는 오픈AI가 "비영리로 설립됐지만 영리 기업처럼 행동한다"고 비판했다. 또 지난 10월 회사를 떠난 마일스 브런디지는 새로운 구조가 비영리 조직이 형식적인 역할만 할 수 있게 될 가능성을 경고했다. 그는 "현재 회사 거버넌스에 세부사항에 대한 논의가 놀라울 정도로 부족하다"며 "공익법인의 운영이 기존 비영리 사명과 일치하리라는 보장은 없다"고 지적했다. 오픈AI의 전환 계획에 대해 경쟁사들도 반발하고 있다. 일론 머스크가 창립한 xAI는 오픈AI가 경쟁사를 배제하고 시장 점유율 확대를 시도하고 있다며 이달 초 영리 기업 전환을 막아달라는 가처분 신청을 법원에 제기했다. 메타 역시 캘리포니아 법무장관에게 오픈AI의 영리화가 실리콘밸리 전체에 '지각 변동'을 초래할 것이라고 경고했다. 메타 관계자는 공식 서한을 통해 "오픈AI의 새 비즈니스 모델은 비영리 투자자가 정부의 세제 혜택을 받으며 영리 기업 수준의 수익을 얻을 수 있는 구조"라고 비판했다. 시민단체 역시 비판행렬에 가세했다. AI 정책 관련 시민단체인 엔코드는 오픈AI의 영리법인 전환이 공익성을 약화시킬 것이라고 주장했다. 소수의 투자자들을 위한 이익을 창출하는 조직이 AGI를 개발할 기술을 통제해서는 안된다는 주장이다. 엔코드 소속 변호사들은 "오픈AI의 운영 통제권이 공익법인으로 넘어갈 경우 첨단 AI 안전성을 보장하는 데 법적 책임을 지던 조직이 이제 주주의 이익을 고려해야 하는 조직으로 변하게 될 것"이라고 주장했다.

2024.12.30 09:45조이환

AI기본법 통과…업계 환영 속 '기대·우려' 교차

'인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법)'이 국회 본회의를 통과해 국내 AI 산업 전반에 대한 제도적 틀이 최초로 마련됐다. 업계와 시민사회는 전반적으로 이를 환영하면서도 법 적용 범위, 속도, 구체적인 지원·규제 수단 등에 대해서는 다양한 견해를 내놓고 있다. 27일 업계에 따르면 대한민국 국회가 지난 26일 AI기본법을 통과시킴으로서 한국은 유럽연합(EU)에 이어 세계에서 두 번째로 AI 산업 전반을 포괄하는 기본법을 갖추게 됐다. 정부는 이번 법 제정을 통해 AI 산업을 활성화하면서도 윤리·안전 문제에 대한 대응 시스템을 확립할 수 있을 것으로 기대하고 있다. 이 법에는 과학기술정보통신부(과기정통부)가 정기적으로 'AI 기본계획'을 수립하고 대통령 직속 국가인공지능위원회를 컨트롤타워로 둬 산업 육성과 윤리적 기준을 함께 조율하도록 하는 내용이 담겼다. 또 사람의 생명·안전·기본권에 중대한 영향을 미칠 수 있는 '고영향 AI'를 별도로 분류해 정부가 대상과 범위를 정하는 조항도 포함됐다. 업계와 시민사회는 대체로 AI기본법이 가져올 긍정적 효과에 주목하고 있다. 업계 관계자 A씨는 "AI 산업에 대한 명확한 기준과 지원 방안을 담은 법안이 생겨서 불확실성이 어느 정도 해소될 것 같다"며 "정부 차원에서 업계 이슈를 정리하고 방향을 제시해 준다는 사실만으로도 큰 도움이 될 것"이라고 호평했다. 실제로 기존 AI 업계에서는 법률 공백으로 인한 혼란이 적지 않았다는 반응이다. 생성형 AI나 빅데이터 기반 서비스를 준비하는 기업들이 어떤 규제와 지원을 받을 수 있는지 제대로 파악하기 어려웠고 투자자들도 법적 리스크 때문에 선뜻 자금을 투입하기 망설였기 때문이다. IT 업계 관계자 B씨는 "AI 기술을 활용한 다양한 비즈니스가 만들어지고 있음에도 이와 관련된 법이나 제도가 없어서 답답했다"며 "AI 기본법이 초석이 돼 불확실성이 해소되고 기업이 연구와 비즈니스에만 집중할 수 있게 되길 기대한다"고 말했다. 시민사회 역시 전반적으로 법 제정을 환영한다. 산업과 기술의 진흥 뿐만 아니라 윤리와 안전의 대응이라는 가장 중요한 두 핵심을 모두 고루 다룬 법안이라는 평가다. 특히 내년부터는 AI 에이전트 등 기술에 자율성을 부여하는 상황이 발생할 예정으로, 기본법을 통해 이러한 상황에 대처할 수 있게 될 것을 기대한다. 전창배 국제인공지능윤리협회(IAAE) 이사장은 "이제 우리나라가 글로벌 AI 이니셔티브를 선도할 수 있는 발판을 갖추게 됐다"며 "내년부터는 산학연관과 민간 등 모든 주체가 적극 힘을 합쳐 국내 AI가 글로벌 탑티어로 발돋움 할 수 있는 원년이 되도록 해야 할 것"이라고 강조했다. 이러한 긍정적 평가에도 불구하고 법 제정 속도와 적용 범위에 대한 우려도 제기되고 있다. 특히 AI기본법이 산업 진흥과 윤리·안전 두 측면을 모두 포괄한 만큼 이 둘 사이의 균형이 적절한지에 대한 비판적인 목소리가 나오고 있다. 김상배 정보세계정치학회(KAWPI) 회장 겸 서울대학교 정치외교학부 교수는 "법이 만들어지는 것 자체는 좋은 신호지만 전체적으로 규제 톤이 강해 보이는 면이 있다"며 "유럽 사례를 많이 참고한 것으로 보이는데 미국처럼 규제를 완화해 기술 혁신을 촉진하는 모델도 함께 고려해야 한다"고 말했다. 김 교수의 의견은 AI 패권 경쟁이 격화되고 있는 국제적 환경에서 비롯된다. 미·중 간 치열한 기술경쟁 구도 속에서 법이 지나치게 앞서거나 과도하게 규제 중심으로 설계될 경우 오히려 혁신의 싹을 잘라버릴 위험이 있다는 것이다. 그는 산업을 적극적으로 육성하는 방향을 강조하며 AI 산업의 급속한 변화 속도를 감안해 법 시행령과 구체적인 규정을 업계 상황에 맞게 유연하게 조정할 필요가 있다고 설명했다. 이와 반대로 AI 윤리와 안전의 중요성을 강조하는 의견도 많다. 변순용 서울교육대학교 AI윤리인증교육연구센터장은 법안이 우선 제정된 점에 대해 긍정적으로 평가하면서도 윤리와 안전 측면에서의 세부적인 고려가 부족하다는 점을 지적했다. 특히 AI가 사회 곳곳에서 활용되는 속도가 상상을 초월하고 있는 만큼 산업 진흥에만 초점을 맞출 경우 시민들의 안전과 기본권이 충분히 보호되지 못할 수 있다는 지적이다. 변 교수는 "법에서 정의한 '고영향 AI'의 범위가 다소 추상적"이라며 "인간의 판단을 대체하거나 결정에 깊이 관여하는 AI 시스템일수록 보다 엄격한 윤리 기준이 마련돼야 한다"고 강조했다.

2024.12.27 11:13조이환

AI기본법 어떤 내용 담았나···고영향AI 11개 분야로 포괄 규정

26일 국회 본회의를 통과한 AI기본법(인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안)은 보칙을 포함해 총 5장(제1장 총칙, 제2장 인공지능의 건전한 발전과 신뢰 기반 조성을 위한 추진체계, 제3장 인공지능기술 개발 및 산업 육성, 제4장 인공지능윤리 및 신뢰성 확보, 제5장 보칙)으로 구성됐다. 1장에서는 인공지능과 인공지능 기술이 무엇인지 정의했다. 법에 따르면, 인공지능이란 학습, 추론, 지각, 판단, 언어 이해 등 인간이 가진 지적 능력을 전자적 방법으로 구현한 것을 말한다. 또 인공지능기술이란 인공지능을 구현하기 위해 필요한 하드웨어, 소프트웨어 기술 또는 그 활용 기술을 말한다. 특히 1장에는 규제가 필요한 '고영향 인공지능'을 11개 분야로 포괄적으로 규정, 설명했다. 즉, 고영향 인공지능이란 사람 생명, 신체 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 인공지능시스템으로 ▲에너지 공급 ▲먹는물 생산 공정 ▲보건의료 제공과 이용체계 구축 및 운영 ▲핵물질과 원자력시설의 안전한 관리 및 운영 ▲범죄 수사나 체포 업무를 위한 생체인식정보(얼굴·지문·홍채 및 손바닥 정맥 등 개인을 식별할 수 있는 신체적·생리적·행동적 특징에 관한 개인정보를 말한다) 분석 및 활용▲채용, 대출 심사 등 개인의 권리·의무 관계에 중대한 영향을 미치는 판단 또는 평가 ▲'교통안전법' 제2조제1호부터 제3호까지에 따른 교통수단, 교통시설, 교통체계의 주요한 작동 및 운영 ▲공공서비스 제공에 필요한 자격 확인, 결정 또는 비용징수 등 국민에게 영향을 미치는 국가, 지방자치단체, '공공기관의 운영에 관한 법률' 제4조에 따른 공공기관 등(이하 “국가기관등”이라 한다)의 의사결정 ▲'교육기본법' 제9조제1항에 따른 유아교육·초등교육 및 중등교육에서의 학생 평가 ▲그 밖에 사람의 생명·신체의 안전 및 기본권 보호에 중대한 영향을 미치는 영역으로, 이 중 어느 한 영역에 미치는 시스템을 말한다. 또 국외에서 이뤄진 행위라도 국내 시장 또는 이용자에게 영향을 미치는 경우 이 법이 적용된다. 2장에서는 인공지능의 건전한 발전과 신뢰 기반 조성을 위한 추진체계(거버넌스)를 규정했다. 법이 규정한 추진체계는 국가AI위원회, 인공지능정책센터, 인공지능안전연구소 등 세 곳이다. 이중 국가AI위원회는 지난 9월말, AI안전연구소는 11월말 이미 출범했다. 이에, 앞으로 설립할 인공지능정책센터에 시선이 쏠렸다. 신설 보다는 NIA 등 기존 공공기관 중 한 곳을 지정할 가능성이 높은 것으로 알려졌다. 3개 조직 중 대통령이 위원장으로 있는 최상위 거버넌스인 국가AI위원회는 위원장 1명(대통령)과 민간 부위원장 1명을 포함한 45명 이내 위원으로 구성한다. AI 정책과 연구개발 전략 수립 뿐 아니라 투자와 규제 발굴 및 개선을 담당한다. 또 고영향 인공지능과 관련한 정책 대응과 규율도 담당한다. 위원회 산하에 필요한 경우 특별위원회를 둘 수 있고, 분과위원회와 전문가로 구성한 자문단도 둘 수 있다. 아직 출범하지 않은 '인공지능정책센터'는 ▲기본계획의 수립·시행에 필요한 전문기술 지원 ▲인공지능과 관련한 시책의 개발 및 관련 사업의 기획·시행에 관한 전문기술 지원 ▲인공지능의 활용 확산에 따른 사회, 경제, 문화 및 국민의 일상생활 등에 미치는 영향의 조사·분석 ▲ 인공지능 및 인공지능기술 관련 정책 개발을 지원하기 위한 동향 분석과 사회,문화 변화와 미래예측 및 법, 제도 조사 연구 ▲다른 법령에서 센터의 업무로 정하거나 센터에 위탁한 사업 ▲ 그 밖에 국가기관등의 장이 위탁하는 사업 등을 수행한다. 이들 공공성 기관과 함께 '한국인공지능진흥협회(이하 협회)' 조항도 담았다. 인공지능 개발과이용 촉진, 인공지능산업 및 인공지능기술의 진흥, 인공지능등에 대한 교육과 홍보 등을 위해 대통령령으로 정하는 바에 따라 과학기술정보통신부장관 인가를 받아 협회를 설립하거나 지정받을 수 있게 했다. 협회는 법인이며 인공지능 제품이나 서비스 이용 촉진 및 확산, 현황 및 관련 통계 조사, 전문인력 양성 교육 및 해외 진출 지원 등의 일을 한다. 이외에도 법안은 과학기술정보통신부장관이 인공지능기술과 관련한 표준화를 위해 표준 제정 등의 사업을 추진할 수 있게 했다. 현재 국가 표준은 산업부 산하 국표원이 담당하고 있어 역할 조정이 필요한 부분이다. 특히 법안은 국가 및 지방자치단체가 인공지능산업 진흥과 인공지능 개발 및 활용의 경쟁력 강화를 위해 인공지능과 인공지능기술 연구·개발을 수행하는 기업, 기관이나 단체의 기능적·물리적·지역적 집적화를 추진할 수 있다고 규정했다. 현재 광주에 AI 단지가 조성돼 있는데, 향후 추가 단지를 선정할 계획이다. 특히 법안은 고영향 인공지능 또는 생성형 인공지능을 이용한 제품 또는 서비스를 제공하는 인공지능사업자는 해당 사실을 이용자에게 사전에 고지해야 하며, 생성형 인공지능 또는 이를 이용한 제품 또는 서비스를 제공하는 경우 그 결과물이 생성형 인공지능에 의해 생성됐다는 사실을 표시해야 하고, 인공지능시스템을 이용해 실제와 구분하기 어려운 가상의 결과물을 제공하는 경우 그 사실을 이용자가 명확하게 알 수 있게 고지 또는 표시하도록 했다. 아래는 과기정통부가 발표한 법안의 주요 내용. 국가AI 발전과 신뢰 기반 조성을 위한 추진체계 마련...3년마다 기본계획 수립 과기정통부장관은 관계부처 및 지자체 의견을 수렴해 국가 AI 경쟁력 강화를 위한 인공지능기본계획을 3년마다 수립하고 시행(제6조)할 수 있다. 아울러, 지난 9월 출범한 국가인공지능위원회(위원장 대통령) 운영의 법적 근거를 마련(제7조)하고, 인공지능과 관련해 발생할 수 있는 위험으로부터 국민의 생명‧신체‧재산 등을 보호하기 위한 전문기관으로 인공지능안전연구소 운영 근거(제12조)를 뒀다. R&D, 학습용데이터, 데이터센터, 집적단지 등 산업육성 지원 인공지능 산업육성을 위해 R&D 지원(제13조), 표준화(제14조), 학습용데이터 시책 수립(제15조), AI 도입‧활용 지원(제16조) 등에 대한 정부 지원 근거를 마련했다. 또 AI집적단지 지정(제23조), AI 데이터센터 시책 추진(제25조), AI 융합 촉진(제19조) 등을 통해 대한민국 인공지능 생태계의 혁신적인 발전을 지원하는 한편 AI 전문인력 확보(제21조), 중소기업을 위한 특별지원(제17조), 창업 활성화(제18조) 등 AI 시대를 선도할 인재 양성과 중소·스타트업의 성장을 촉진하기 위한 사항도 함께 담았다. 고영향AI‧생성형AI에 대한 안전‧신뢰 기반 조성 인공지능의 기술적 한계, 오‧남용 등으로 발생가능한 문제를 사전에 예방하기 위해 규제 대상으로 고영향AI와 생성형AI를 정의하고, 투명성 확보 의무(제31조), 안전성 확보 의무(제32조), 사업자 책무(제34조)를 규정했다. 아울러, 민간이 자율적으로 추진하는 AI 안전성‧신뢰성 검‧인증(제30조), 인공지능 영향평가(제35조)에 대한 정부의 지원 근거도 마련했다. 이번 'AI기본법'은 국무회의 의결 및 공포를 거친 후 1년의 경과 기간을 둔 뒤 2026년 1월부터 시행될 예정이다. 정부는 이 법이 신속하게 시장에 안착할 수 있게 하위법령과 가이드라인 마련 등 후속조치도 조기에 추진할 계획이다. 유상임 과기정통부 장관은 "국가 AI경쟁력 강화의 밑거름이 될 AI기본법 국회 통과를 매우 뜻깊게 생각한다”며 “인공지능을 둘러싼 치열한 글로벌 경쟁 속에서 AI기본법 제정을 통해 기업의 불확실성을 해소하고, 민관의 대규모 투자를 촉진하는 등 우리나라가 명실상부하게 AI G3 강국으로 도약할 수 있는 중요한 이정표가 마련됐다"고 밝혔다. 이어 "AI기본법 제정은 끝이 아닌 시작”이며 “현장과의 긴밀한 소통을 통해 하위법령 제정과 각종 산업지원 시책 수립을 속도감 있게 추진하고, 국가 AI 컴퓨팅 인프라를 조속히 구축하도록 최선의 노력을 기울이겠다"고 말했다. 한편 AI기본법 통과에 대해 국회 과방위 소속 의원들이 잇달아 소감을 밝혔다. 황정아 의원(민주당, 대전 유성구을)은 "우리가 적극 추진한 인공지능사업자의 인공지능 실증, 성능시험 등을 지원하기 위한 시설, 장비, 설비 구축 등 국가와 지자체의 민간 실증 지원 근거 규정도 반영, AI 기술 발전에 보다 활력을 불어넣을 것으로 기대한다"면서 "딥페이크를 비롯한 AI의 부작용을 막기 위한 규제도 포함됐다. 인공지능사업자가 고영향 인공지능 또는 이를 이용한 제품 서비스를 제공하는 경우 신뢰성 확보를 의무화하도록 했다. 인간의 생명과 신체, 정신적 건강 등에 해가 되지 않는 등의 윤리원칙도 명시했다"고 밝혔다. 이어 과기계의 숙원이자 시대적 과제인 AI기본법이 마침내 통과돼 산업 발전과 신뢰성 확보라는 두 축을 조화롭게 아우르는 법적 기반이 마련됐다면서 "AI기본법 제정은 대한민국의 AI 생태계 구축을 위한 중요한 첫 발걸음"이라고 강조했다. 이훈기 의원(민주당, 인천 남동구을)은 "미국, 유럽 등 세계 각국이 인공지능 법제를 마련하는 상황에서. 우리 역시 우리나라만의 인공지능 발전과 안전성 확보를 위한 법제 마련이 시급했다"면서 "이번에 통과된 기본법에는 인공지능이 우리 국민의 기본권에 미치는 영향평가를 하도록 한 내용이 포함돼 의미가 남다르다"고 진단했다. 실제 이번 제정안은 '인공지능 영향평가' 규정을 포함하고 있다. 영향평가는 사업자가 고영향 인공지능 제품이나 서비스 출시 전에 사회, 경제, 환경 등 사람의 기본권에 미치는 다양한 영향을 고려하도록 한 것으로, 공공기관 등이 채용이나 공공서비스를 위해 인공지능을 사용할 때는 영향평가가 완료된 서비스를 우선 이용하도록 했다. 조인철 의원(민주당, 광주 서구갑)은 광주가 AI 거점도시를 표방하면서 그간 진행한 AI 관련 사업을 중단없이 진행할 수 있게 ▲인공지능집적단지 조성 지원 ▲인공지능 실증 기반 조성 등의 내용을 법안에 포함했면서 "또 인공지능 집적화를 지원하기 위한 전담기관 지정에 대한 근거도 마련했다"고 밝혔다. 광주광역시는 지난 2020년부터 총사업비 4265억 원을 투입해 인공 지능 중심 산업융합 집적단지를 조성해 왔다. 국가 AI데이터센터 등 연구 개발을 지원하는 핵심 기반시설도 구축했다. 오는 2029 년까지 약 9000 억 규모의 '인공지능 실증 밸리 확산사업'을 추진, AI 2 단계 사업에 박차를 가하고 있다. 조 의원은 "AI 기본법이 광주를 AI 거점도시로 성장시키는 발판이 되고, 광주의 AI 발전이 곧 대한민국 전체의 미래 경쟁력을 높이는 마중물이 되기를 기대한다"고 덧붙였다.

2024.12.26 18:34방은주

[기고] 야누스의 얼굴을 가진 인공지능

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 로마 신화에 '야누스'라는 신이 나온다. 출입문으로 드나드는 사람들을 보기 위해 앞뒤에 얼굴을 가진 출입문의 수호신으로 알려져 있다. 세상 만사의 시작을 지배하는 신이기도 해서 한해의 시작인 1월을 뜻하는 영어 단어 '제뉴어리(January)'에 그 흔적을 남기기도 했다. 다만 야누스는 앞과 뒤의 모습이 다른 두 얼굴을 가진 것으로 묘사돼 어떤 일의 양면성, 밝은 면과 어두운 면이 공존하는 것을 표현할 때도 쓰인다. 생성형 인공지능(AI) 기술이 발전하면서 상상 속에서만 가능해 보였던 일들이 현실이 되고 있다. AI 기술이 글 내용을 음성으로 읽어 주고, 음악을 만들고 이미지를 만들어 낸다. 실제로 연기하는 배우 없이 만들어낸 동영상이 크게 어색하지 않은 단계에 이르렀다. 이처럼 AI 기술이 빠른 속도로 발전하면서 AI에 대한 기대가 커지고 있다. 한편으로는 자칫 AI를 이용한 결과물로 인해 정보가 유통되는 생태계의 무결성이나 신뢰성에 영향을 미칠 수 있고, 이로 인해 잘못된 정보가 사실인 것처럼 유통되거나 소비자를 기만하는 등의 문제가 발생할 위험이 있다는 우려도 나온다. AI가 결과물을 생성해 내는 과정이 블랙박스처럼 돼 있고, AI를 통해 만들어낸 결과물이 실제 존재하는 것과 구별하기 어려울 정도라, AI를 이용해 생성하는 결과물을 법률적으로 어떻게 다룰 것인지에 대한 논의도 한창이다. 유럽연합(EU)은 AI법을 제정하며 AI 시스템이 적절한 추적과 설명이 가능한 방식으로 개발 및 사용되고, 인간이 AI 시스템과 상호작용하거나 소통하고 있다는 사실을 인지해야 한다는 '투명성 원칙'을 밝혔다. EU AI법은 이런 원칙에 따라 AI 시스템 제공자가 사람이 아닌 AI 시스템에 의해 결과물이 생성됐음을 감지할 수 있는 기술적 솔루션을 시스템에 내장하도록 했다. 이러한 기술적 솔루션에 더해 AI 기술로 만든 결과물이 기존의 인물, 장소 또는 사건과 현저히 유사해 보는 사람으로 하여금 실제 사실인 것처럼 잘못 인식하게 하는 딥페이크에 대해서는 해당 콘텐츠가 AI에 의해 생성된 것이라는 점을 배포자로 하여금 표시하도록 했다. 우리나라도 'AI 기술 등으로 만든 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등'을 '딥페이크 영상 등'이라 정의했다. 선거일 전 90일부터 선거일까지 선거운동을 위해 딥페이크 영상 등을 제작, 편집, 유포, 상영 또는 게시하는 행위를 하지 못하도록 선거법을 개정했다. 선거운동 기간이 아닌 때도 선거운동을 위해 딥페이크 영상 등을 제작, 편집, 유포, 상영 또는 게시할 때 선관위 규칙으로 정하는 바에 따라 AI 기술 등으로 만든 가상의 정보라는 사실을 명확하게 인식할 수 있도록 표시하게 했다. 선거운동의 자유를 최대한 보장하면서도 선거의 공정성을 확보하기 위해 AI 기술 등을 이용해 만든 콘텐츠라는 사실을 누구나 쉽게 알아 볼 수 있도록 표시할 의무를 둔 것이다. 최근 국회 소관 상임위를 통과한 AI기본법 제정안도 AI사업자가 생성형 AI 또는 이를 이용한 제품 또는 서비스를 제공하는 경우 그 결과물이 생성형 AI에 의해 생성됐다는 사실을 표시하도록 정했다. 또 AI시스템으로 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등의 결과물을 제공하는 경우 해당 결과물이 AI시스템에 의해 생성됐다는 사실을 이용자가 명확하게 인식할 수 있는 방식으로 고지 또는 표시하도록 했다. 다만 AI로 만든 모든 콘텐츠에 'AI를 이용해 생성한 결과물'이라는 표시를 할 필요가 있을지는 의문이다. 선거 등 정보의 출처가 중요한 경우, 또 개인의 인격권 침해가 될 수 있는 경우에는 그 콘텐츠가 AI에 의해 생성된 것인지를 표시할 필요가 있다. 그러나 이러한 경우가 아닌 모든 경우에 표시가 필요할지, 표시를 한다면 어떠한 방식으로 할 것인지, 동영상, 이미지, 텍스트 등 각 콘텐츠의 특징을 고려해 콘텐츠 자체를 향유하는데 방해가 되지 않는 방식이 무엇일지 등 여러 가지 논의가 필요해 보인다. 로마인들은 야누스의 얼굴 중 한쪽은 과거를, 다른 한쪽은 미래를 본다고 생각했다고 한다. 야누스를 세상일의 복잡한 측면, 과거와 미래를 함께 보며 균형을 잡아주는 수호신으로 생각했던 것 같다. AI이 가진 두 얼굴도 균형을 이룰 수 있도록 제정되는 법률이 야누스의 역할을 하기를 기대한다.

2024.12.23 17:23유재규

[AI는 지금] 규제 갈림길 선 AI, 진화 속도 빨라졌다

"인공지능(AI)이 100년 안에 인간을 멸종시킬 수 있는 가능성이 99.9%에 달합니다. 미래에는 AI가 인간을 반드시 해칠 수 있습니다." 로만 얌폴스키(Roman Vladimirovich Yampolskiy) 루이빌대 사이버보안연구소 교수는 최근 AI의 위험성을 제기하며 이처럼 경고하고 나섰다. 챗GPT 개발사 오픈AI와 구글 딥마인드의 전·현직 직원들뿐 아니라 국가안보 정부 당국자, AI·보안 전문가들도 함께 AI에 대해 우려하며 재앙을 피할 수 있는 시간이 얼마 남지 않았다는 경고의 메시지를 잇따라 내놓고 있다. 1984년 개봉해 전 세계적으로 선풍적인 인기를 끈 '터미네이터'는 AI의 위험성을 가장 극명하게 보여주는 영화로 손꼽힌다. '터미네이터'의 배경은 2029년 미국 로스앤젤레스로, AI가 핵전쟁을 일으켜 잿더미를 만들고 남은 인류를 말살하는 과정에서 살아남은 인간들이 투쟁을 벌이는 과정을 담았다. '악의'가 아닌 논리적인 계산을 거쳐 AI가 인간을 적대한다는 내용은 AI가 등장하는 소설과 영화 등에서 숱하게 사용돼 왔다. 하지만 최근 AI의 발전 과정을 보면 이젠 단순히 영화 속 이야기로 치부하기 어렵게 됐다. 실제 지난해 5월 AI가 통제하는 미국 공군의 드론이 적의 지대공 시스템을 찾아 폭격하는 가상훈련에서 AI는 자신의 임무를 방해한다고 인식한 오퍼레이터를 폭격했다. "오퍼레이터를 살해하지 말라"는 사전 명령에도 불구하고 벌어진 일이었다. 가상훈련이었던 만큼 실제로 폭격이 일어나진 않았지만, AI가 인간을 위협하는 일이 현실이 될 수 있다는 가능성을 보여줬다. AI는 데이터를 학습하고 정해진 알고리즘에 따라 추론하는 것이 기본적인 역할이다. 그러나 인터넷이 발전하며 학습할 수 있는 데이터가 급격히 늘어났고, 엄청난 양의 데이터를 AI에게 학습시킬 수 있는 시대가 됐다. 그 결과 방대한 학습량을 기반으로 텍스트, 이미지는 물론 소리, 영상까지 생성해 낼 수 있는 '초거대 AI'가 등장했다. 특히 2022년 11월 오픈AI가 '챗GPT'를 내놓으면서 AI는 새로운 변화를 맞았다. 오픈AI를 필두로 구글, 마이크로소프트, 메타, 아마존 등 주요 빅테크가 연일 새로운 기술을 쏟아내면서 생성형 AI는 불과 2년여 만에 무서운 속도로 발전했다. 오픈AI가 최근 공개한 최신 AI 모델 'GPT-4o'는 텍스트는 물론 음성, 시각 정보까지 이해하고 '인간의 전유물'로 여겨진 창작 영역까지 넘보고 있다. 이처럼 빠른 속도로 AI가 발전하는 것과 동시에 오류도 곳곳에서 나타나고 있다. 구글이 새롭게 선보인 검색 기능 'AI 오버뷰(AI Overview)'는 허위 답변을 제공한다는 비판을 받았고, 오픈AI의 'GPT-4o'에서는 음성 비서 '스카이'가 유명 배우 스칼렛 요한슨(Scarlett Ingrid Johansson)의 목소리를 도용했다는 의혹에 휩싸여 서비스를 한 때 중단했다. 무리한 AI 개발 속도 경쟁이 얼마나 위험한 지를 보여주는 사건이다. AI 기술의 발전은 그 자체로 긍정적일 수 있지만, 기술 혁신과 창작자 권리 보호, 윤리와 도덕성 사이에서 균형을 맞추기 위한 과도기를 겪고 있다. 이 같은 상황에서 AI가 얼마나 위험한지 현 상황을 짚어보고 파악하는 것은 중요한 의미를 갖는다. 인공일반지능(AGI)이 조만간 개발돼 보편화될 것이란 전망 속에 AI의 위험성을 제대로 인지하고 있어야 부작용을 예방하고 향후 AI와 인간이 공존할 수 있게 된다. 유럽연합(EU)뿐 아니라 미국, 중국, 일본 등 세계 각국이 AI 관련 법제화에 속도를 내는 이유도 여기에 있다. 생각하는 기계 'AI'의 등장 현재 생활의 일부로 알게 모르게 들어온 AI는 최근 들어 빠른 속도로 발전했지만 연구 과정은 순탄치만은 않았다. 일단 기계로 빠르고 정확히 계산하는 '컴퓨터'가 등장한 후 이를 활용해 인간의 지적 능력을 인공적으로 만들려는 시도는 1950년대부터 있었다. "기계도 생각할 수 있는가?" 영화 '이미테이션 게임'의 실제 주인공이자 영국의 과학자인 앨런 튜링(Alan Mathison Turing)은 지난 1950년 10월 1일 국제 학술지 옥스퍼드에 게재한 논문 '계산 기계와 지능(Computing Machinery and Intelligence)'의 첫 문장을 이처럼 썼다. 그가 제시한 개념은 1956년 미국 다트머스에서 열린 회의를 통해 '인공지능(AI, artificial intelligence)'이라는 용어로 탄생했다. AI의 태동기로 불리는 1950년대에는 인간의 지식을 기호와 수학적 관계로 표현해 기계에 지능을 부여하려는 '규칙 기반 인공지능' 기술이 많은 관심을 받았다. 이 연구의 기반이 되는 기계적 계산으로 '직접 지능을 구현한다'는 움직임은 '계산주의', '기호주의' 등으로 불렸다. 신경생물학자 프랭크 로젠블랫(Frank Rosenblatt)은 1958년 '퍼셉트론(Perceptron)'이라는 알고리즘을 제시했다. 생물 신경세포인 '뉴런'에서 착안한 퍼셉트론은 입력 정보의 가중치를 조정해 수학적 처리를 거쳐 결과를 내놓는 구조다. 현재는 딥러닝에 쓰이는 인공신경망 모델로 불린다. 로젠블랫은 기초적인 논리연산을 퍼셉트론으로 구현하는 데 성공했고, 이 퍼셉트론에서 '머신러닝'의 기초적인 개념이 탄생했다. 퍼셉트론이 제시된 이후 사람의 뇌 구조를 본떠 기계에 지능을 부여하자는 시도인 '연결주의'라고 불리는 연구 경향이 등장했고, AI 연구의 한 축이 됐다. 하지만 1969년 'AI 대가'인 마빈 민스키(Marvin Lee Minsky)가 퍼셉트론으로 구현할 수 없는 논리연산(XOR연산)이 있다는 논문을 발표한 후 AI를 연구하려는 분위기는 가라앉았다. 머신러닝 등 AI 연구와 관련된 예산이 대규모로 삭감됐기 때문이다. 민스키의 논문으로 AI는 20년 가까이 암흑기를 겪었다. 다만 이때 퍼지 이론, 통계적 데이터 처리법, 데이터 마이닝 등 신경망 기반이 아닌 AI 유관 기술은 점차 발달했다. 암흑기에서 빠져나온 것은 1988년이다. 퍼셉트론 같은 인공 신경망을 층층이 쌓아 XOR연산 불가 문제를 해결한 것이다. 그러나 여러 층으로 신경망을 쌓으면 복잡해지게 돼 머신러닝 조정이 어려워 짐에 따라 지능 구현에 한계를 보인다는 문제점이 드러났다. 또 다층의 신경망을 운용하기 위한 연산 장치(하드웨어)의 발전이 충분하지 않은 데다 AI에 입력시킬 데이터도 부족하다는 시대적 한계도 있었다. 인공 신경망을 층층이 쌓는다는 아이디어는 2010년대의 '딥 러닝(Deep Learing)'으로 이어졌다. 그동안 인터넷의 영향으로 데이터가 기하급수적으로 늘어나고 병렬처리를 중심으로 한 연산 능력도 비약적으로 발달한 덕분에 '딥 러닝'은 출현할 수 있었다. 이후 합성곱신경망(CNN) 등이 발달하며 퍼셉트론부터 이어진 '연결주의' AI 전성시대는 본격화됐다. 특히 2016년에는 구글 딥마인드가 개발한 '알파고'가 등장해 이세돌 9단을 꺾으면서 대중에게도 큰 인상을 남겼다. 생성형 AI 시대 '활짝' 인간을 절대 따라잡을 수 없을 것이라 여겼던 '바둑' 분야에서 특출한 능력을 보여주면서 AI는 우리 삶을 빠르게 바꿀 것이라는 기대가 커졌다. 바둑 외에 AI가 일상에 변화를 주는 일은 그 이후에도 크게 일어나지 않았지만, 컴퓨팅 능력, 반도체 기술 등은 점차 빠른 속도로 발전됐다. 그러나 지난 2022년 말 오픈AI가 '챗GPT'라는 생성형 AI를 선보인 이후 시장은 빠른 속도로 변했다. 이제는 수많은 빅테크 기업이 생성형 AI를 기반으로 한 다양한 서비스를 내놓으면서 AI가 우리 삶에 빠르게 침투하고 있는 분위기다. 이들의 기술 경쟁은 올해 상반기에도 계속됐다. 오픈AI는 지난 2월 동영상 생성 AI '소라(SORA)'를 공개해 시장을 놀라게 했다. 소라가 만든 다양한 영상도 함께 선보였는데, 몇 줄의 프롬프트만으로 최대 1분 길이의 영상을 만들 수 있다는 점에서 주목받았다. 오픈AI 견제에 나선 구글도 같은 달 멀티모달 AI 모델 '제미나이(Gemini) 1.0 울트라'를 업그레이드한 '제미나이 1.5 프로'를 선보였다. 지난 5월에는 '구글 연례 개발자 회의(I/O)'를 통해 검색 엔진에 제미나이를 탑재할 것이란 소식뿐 아니라 구글의 음성 모델을 기반으로 하는 새로운 프로젝트 '아스트라(Astra)'도 공개했다. 이는 AI가 사람처럼 보고, 듣고, 음성으로 대화하면서 이용자의 개인 비서 역할을 하는 기능이다. 오픈AI 대항마로 불리는 앤트로픽(Anthropic)도 올해 3월 생성형 AI 모델 제품군인 '클로드 3'을 공개했다. 특히 가장 성능이 우수한 '클로드 3 오퍼스'는 앤스로픽이 내놓은 첫 '멀티모달' 생성형 AI로 눈길을 끌었다. 사용자는 사진, 차트, 문서 및 기타 유형의 데이터를 업로드하고 이에 대한 분석과 답변을 얻을 수 있다. 메타는 지난 4월 새 AI 모델인 '라마 3(Llama 3)'을 공개했다. 소셜 미디어(SNS) 플랫폼용 챗봇인 메타 AI도 이날 함께 공개했는데, 지난해 9월 베타 서비스를 시작한 지 7개월 만이다. 라마 3을 기반으로 만들어진 메타 AI는 페이스북과 인스타그램 등에 내장돼 사용자 질문에 답함은 물론 이미지 생성도 가능하다. 이 같은 분위기 속에 오픈AI는 지난 5월 'GPT-4o'라는 새로운 플래그십 AI 모델을 발표해 다시 한번 세계적인 관심을 불러일으켰다. GPT-4o는 GPT-4의 개선판으로, 더 빠른 응답속도를 제공하면서 향상된 시각·청각 기능을 갖춘 모델이다. 모델명에 '모든 것(omni)'이라는 뜻으로 o를 붙였는데, 이는 사용자와의 다양한 상호작용 방식을 하나의 모델에 통합해 텍스트, 음성, 이미지, 비디오를 모두 다룰 수 있다는 것을 나타낸다. 'GPT-4o'의 이점은 '향상된 사용자 경험'으로 요약할 수 있다. 대화형 AI 모델의 응답시간은 사용자가 얼마나 자연스럽게 AI와 상호작용을 할 수 있는지를 결정짓기 때문에 사용자 경험에 있어 매우 중요한 요소다. GPT4o는 최소 응답시간 232밀리초, 평균 320밀리초 만에 답할 수 있다. 인간 간의 대화에서 평균 응답시간이 약 200~500밀리초인 점을 감안하면 굉장히 빠른 속도다. 'GPT-4o'는 AI가 말하는 중간에 사용자가 끼어들 수 있도록 설계돼 AI의 말이 끝나기를 기다릴 필요 없이 즉각 다른 요청을 하고 답변을 받을 수 있다는 점도 눈길을 끈다. 이는 자연스러운 대화를 가능하게 해 사용자의 만족도를 크게 높이는 요소로 평가된다. 또 50개가 넘는 언어를 지원하고, 사용자의 명령에 따라 음성의 톤(어조)을 변경하거나 특정한 음성으로 대화를 진행할 수도 있다. 'GPT-4o'의 등장은 대화형 AI의 새로운 시대를 여는 중요한 진전이자, 향후 다양한 분야에서 혁신적인 변화를 불러올 것이란 기대감을 키우고 있다. 이를 통해 앞으로는 국제 콘퍼런스나 다국적 기업의 회의에서 실시간 통번역을 활용하거나, AI 교사가 언제든 학생의 요청에 실시간으로 빠르게 대응해 교육 효과를 높일 수 있을 것으로 예상된다. 미라 무라티 전 오픈AI 최고기술책임자(CTO)는 "GPT-4o는 사람들과 실시간으로 상호작용하며 대화한다"며 "텍스트 외에 이미지와 동영상도 잘 분석할 수 있다"고 강조했다. 'GPT-4o' 등장…'AGI' 시대 임박 'GPT-4o'의 등장 이후 빅테크들의 기술 경쟁이 더 치열해지면서 AI의 발전 속도도 더 가팔라질 것이란 전망이 많다. AI는 이제 주어진 명령을 수행하는 데 그치지 않고 중간에 필요한 업무를 스스로 찾아내 결과물을 도출하는 'AI 에이전트'로 진화하고 있다. 그 종착점으로는 주어진 모든 상황에서 인간처럼 추론, 학습하고 문제를 해결하는 능력을 갖춘 'AGI'가 될 것으로 보고 있다. 인간의 명령 없이도 스스로 판단하고 일할 수 있다는 뜻이다. 영화 아이언맨 속 '자비스', 영화 그녀(Her) 속 '사만다' 같은 수준의 AI가 현실화되는 것도 멀지 않았다. 아직 AGI의 명확한 판별 기준이나 정의는 없다. 오픈AI에선 '인간보다 똑똑한 AI 시스템'으로 AGI를 정의하며 관련 기술 개발에 몰두하고 있다. 오픈AI 전 연구자 출신 대니얼 코코타즐로는 "오픈AI가 최초의 AGI 구축 개발자가 되기 위해 무모하게 경쟁하고 있다"고 말했다. 구글의 '아스트라'도 AGI 프로젝트다. '알파고의 아버지' 데미스 허사비스 구글 딥마인드 CEO는 'AGI 시대 도래'를 선언하며 AGI의 일부 기능을 올 연말 구글 AI '제미나이'에 담겠다고 예고한 바 있다. 허사비스는 "일상생활에 도움을 주는 AGI를 개발하고 싶었다"며 "AGI는 사람처럼 복잡하고 역동적인 세계를 이해하고 대응할 수 있어야 한다"고 강조했다. AGI는 AI의 궁극적 지향점이자 전 세계 기술 패권을 거머쥐는 핵심으로 급부상하며 글로벌 빅테크들의 '쩐의 전쟁'이 벌어지고 있다. 덕분에 최소 30년, 적어도 10년으로 꼽히던 AGI 출현 예측 시기는 최근 5년 내외로 앞당겨지는 추세다. 샘 올트먼 오픈AI 최고경영자(CEO)와 젠슨 황 엔비디아 CEO는 5년 정도 후 AGI 현실화를 내다본다. 일론 머스크 테슬라 CEO는 이르면 내년으로 봤다. 전문가들은 AGI에 대한 통제력 상실 위험에 대비해야 한다는 지적을 속속 내놓고 있다. 스티븐 호킹 박사와 일론 머스크 테슬라 CEO 등은 AGI의 출현이 인간의 생물학적 한계로 인해 인류를 대체할 수 있다고 우려했다. 지난 3월 미국 기업 글래드스톤 AI는 미 국무부 의뢰를 받아 발표한 보고서에서 "가장 발전한 AI 시스템이 최악의 경우 '인류 멸종 수준의 위협'이 될 수 있다"고 경고했다. 제프리 힌튼 캐나다 토론토대학 교수는 "AGI의 상용화가 예상보다 빠를 것"이라며 "그에 따른 위험도 크다"고 경고했다. 오픈AI 전 연구자 출신인 대니얼 코코타즐로는 "AGI가 오는 2027년께 완성될 수 있을 것으로 보인다"며 "AGI가 인류를 파괴하는 재앙이 될 확률은 70%에 달한다"고 말했다. 반면 AGI의 개발은 불가능하다고 주장하는 전문가들도 있다. 앤드류 응(Andrew Ng) 미국 스탠퍼드대학 교수가 대표적으로, AGI에 도달하려면 30~50년이나 더 걸릴 수도 있다고 주장했다. AI가 인류에게 도움이 될 것이라는 'AI 부머(boomer)'로 분류되는 얀 르쿤(Yann LeCun) 미국 뉴욕대 교수는 "인간 수준의 AI 등장 시기를 예측하는 것은 어렵고 위험도 과장됐다"고 평가했다. 인간 위협하는 AI…신뢰도는 '글쎄' AI가 이미 현실에서 인간에게 위협을 줄 만한 일들을 속속 벌이고 있다는 점에서 AGI가 나타나기 전 인간의 선한 의지와 배치되지 않는 '정렬(alignment)' 작업이 필요하다는 지적들도 있다. AGI 기술이 테러조직·해커 등의 손에 잘못 들어가게 될 경우 참사가 일어날 수도 있는 데다 AGI 자체가 인간의 통제를 벗어나 문제를 일으킬 가능성도 있다는 점에서다. 실제 오픈AI '챗GPT'는 탈옥 모드로 해킹돼 논란이 됐다. 플리니 프롬프터(Pliny the Prompter)라는 해커는 X(옛 트위터)를 통해 자신을 'AI 레드팀' 멤버라고 소개하며 오픈AI 커스텀 GPT 편집기를 사용, 새로운 GPT-4o 모델의 모든 제한을 우회하는 방법을 찾아냈다고 밝혔다. 그 결과 AI 챗봇이 욕설을 내뱉게 하고 자동차 탈취 방법을 생성하게 할 뿐 아니라 심지어 폭탄을 제조하는 방법을 안내하도록 했다. AI 환각·편향성 등도 문제다. 구글은 올해 새롭게 선보인 검색 기능 'AI 오버뷰(AI Overview)'에서 허위 답변을 제공해 망신을 톡톡히 당했다. 예컨대 '미국에 얼마나 많은 무슬림 대통령이 있었는가' 질문하자 "버락 오바마는 미국 최초의 무슬림 대통령"이라고 잘못된 답변을 내놓은 것이다. 또 '치즈가 피자에 달라붙지 않는다'라는 사용자의 말에 AI 오버뷰는 "소스에 무독성 접착제 8분의 1컵을 넣으면 된다"는 황당한 조언도 내놨다. 위험성 증가에 AI 규제안 마련 골몰…韓, AI 기본법 연내 통과 '임박' 이처럼 AI에 대한 위험성이 점차 커지면서 이를 제어하기 위해 곳곳에서 방안 마련에 나서고 있다. 유럽연합(EU)이 올해 3월 세계 최초로 포괄적인 AI 기술 규제법안인 'AI법'을 최종 승인한 배경도 이런 위험도를 낮추기 위한 수순으로 분석된다. 2026년 이후 전면 시행될 이 최종안에 따르면 EU는 AI 활용 분야에 대해 총 4단계의 위험 등급으로 구분해 차등 규제할 예정이다. 법 위반 시 경중에 따라 전 세계 매출의 1.5%에서 최대 7% 수준의 과징금이 부과될 수 있다. 미국은 2020년 '국가 AI이니셔티브법'을 제정하고 AI 분야에 약 2조3천억 원을 지원하고 있다. 여기에 '안전하고 신뢰할 수 있는 AI에 대한 행정명령'을 통해 AI 안전 테스트 결과와 주요 정보 등을 정부와 공유하도록 의무화했다. 중국은 지난해 'AI 윤리 거버넌스' 표준화 지침을 마련했다. 일본 역시 히로시마 AI 프로세스를 주도적으로 이끌며 국제 규범 만들기에 앞장서고 있다. 영국과 캐나다도 법률, 의료 등에 AI 기본 원칙을 세워 준수하고 있다. 영구적인 안전장치가 필요하다는 주장도 있다. 에릭 슈미트 전 구글 최고경영자(CEO)는 최근 개최한 콘퍼런스에서 AI가 자유의지를 가지게 된다면 해결책은 코드를 뽑는 것 하나뿐이라고 발언해 주목받았다. 이처럼 세계 각국이 AI 관련 법제화에 속도를 내고 있지만 우리나라는 예외다. AI 기본법이 지난해 2월 국회 과학기술정보방송통신위원회의 법안심사소위를 통과하고도 1년 넘게 방치되다 결국 21대 국회가 끝나면서 자동 폐기됐기 때문이다. 22대 국회에서도 연내 통과를 추진해왔지만 이달 초 윤석열 대통령의 비상계엄령 사태로 한 때 위기를 맞기도 했다. 전문가들은 미래 먹거리로 AI 산업을 육성해야 하는 우리나라의 상황에서 진흥과 규제를 아우르는 법 제도가 하루 빨리 갖춰져야 한다고 입을 모은다. 글로벌 AI 기업들과 경쟁이 심화되는 상황에서 법 제정이 늦어질수록 국내 AI 기업들의 경쟁력은 그만큼 떨어질 수밖에 없다고 보고 있다. 이에 국회는 더 이상 늦출 수 없다는데 의견을 같이하고 이달 말께 AI 기본법을 본회의에서 처리하기로 거의 합의를 봤다. AI기본법은 정부가 AI 산업 육성을 지원하고 필요한 규제를 할 수 있도록 관련 법적 근거를 담았다. 대통령 직속 '국가AI위원회'를 설치·운영하고 과학기술정보통신부는 3년마다 국가AI위원회 의결에 따른 AI 정책 방향과 전문인력 양성 등을 담은 국가 AI 전략인 'AI기본계획'을 수립해야 한다. 최형두 국민의힘 의원은 "최근 비상계엄 사태로 야기된 정치적 혼란과 과방위의 7개월간 방송 이슈 집중으로 산업계에 실망을 드려 죄송하다"며 "여야가 힘을 모아 연말 AI 기본법 통과를 목전에 두고 있듯 보다 적극적으로 산업 지원에 나서겠다"고 말했다. 조인철 더불어민주당 의원은 "본회의가 예정된 27일 AI 기본법은 통과될 것 같다"며 "만약 그날 (통과가) 안 되더라도 반드시 AI 기본법을 통과시켜 놓겠다"고 공언했다. 조준희 한국소프트웨어산업협회(KOSA) 회장은 "엄중한 상황에서도 여야 국회와 관계부처의 노력으로 AI 기본법이 연내 제정을 가시화하는 성과를 달성했다"며 "내년을 전 산업의 AI 내재화 원년으로 선포할 것"이라고 강조했다.

2024.12.20 16:54장유미

더불어민주당 조인철 의원 "AI 기본법 이달 27일쯤 통과될 것"

"오는 27일 본회의가 예정된 것으로 알고 있습니다. 그날 인공지능 기본법은 통과될 것 같습니다." 더불어민주당 조인철 의원은 19일 서울 반포 플렌티컨벤션에서 열린 '2024 KOSA 회원 송년의 밤' 행사에서 본회의 의결을 남긴 AI 기본법에 긍정적인 입장을 밝혔다. 이날 행사에서 SW 의정대상을 수상한 조 의원은 "본회의가 예정된 27일 AI 기본법은 통과될 것 같다"며 "만약 그날 (통과가) 안 되더라도 반드시 AI 기본법을 통과시켜 놓겠다"고 강조했다. AI기본법은 전 산업에 걸쳐 핵심 기술로 주목받는 AI의 건전한 발전에 기여하고 AI 사업자의 투명성과 안정성을 확보하기 위한 법안이다. 지난 17일 AI기본법에 대한 법사위 심사를 마치고 오는 27일 본회의만을 남기고 있다. 이번 AI기본법은 22대 국회에서 발의 19건의 법안을 병합한 것으로 AI 기본계획의 수립과 시행, 국가AI위원회 설치 등 산업 육성 및 진흥에 대한 내용과 딥페이크 등 기본권에 중대한 영향을 미칠 수 있는 부분에 대한 규제도 포함한다. 조 의원은 "이번에 준 상은 상값을 톡톡히 하라는 이야기 같다"며 "어려운 일이 있을때 언제든 연락주시면 최선을 다하겠다"고 수상소감을 밝혔다.

2024.12.19 18:40남혁우

정부 "AI기본법 사실조사, 행정조사기본법 규정 반영”

인공지능(AI) 기본법안의 사실조사 조항을 두고 일각에서 단순 민원으로도 조사가 이뤄진다고 주장하는 가운데, 정부는 필요 최소한의 범위 내에서만 사실조사가 가능하다고 설명했다. 과학기술정보통신부는 18일 설명자료를 통해 “법제사법위원회를 통과한 AI기본법안의 사실조사 조항은 AI기본법에만 규정된 것이 아니다”면서 “현행법 상 행정조사의 기본법인 행정조사기본법 제7조 규정을 반영한 일반적인 내용”이라고 밝혔다. 이어, “법사위는 심사 과정에서 업계의 우려를 반영해 사실조사의 내용, 방법, 절차 등에 관해 이 법에서 정하는 사항을 제외하고는 행정조사기본법에서 정하는 바에 따르도록 자구를 수정했다”고 강조했다. 과기정통부는 또 “행정조사기본법에서 규정하는 바와 같이 조사목적을 달성하는데 필요한 최소한의 범위 안에서 실시할 예정”이라며 “다른 법령에서 규정하는 바와 같이 사실조사 조건을 명확히 하기 위해서 민원인의 사적 이해관계에서 민원이 제기됐거나 익명의 탄원, 투서 등에 의해 이뤄지는 등의 경우에는 사실조사를 실시하지 않도록 하위법령에 명시할 계획”이라고 덧붙였다.

2024.12.18 09:15박수형

  Prev 1 2 3 4 5 6 7 8 Next  

지금 뜨는 기사

이시각 헤드라인

"공공 AX 골든타임 왔다…117만 공무원부터 AI 익혀야"

두산, 반도체 제조 대신 '소재·후공정·설계'로 보폭 확대

네이버·두나무 ‘AI+웹3’ 동맹…새 디지털 경제 생태계 출발점 되나

"AI가 앱 만든다"…오픈AI, '데브데이'서 차세대 생태계 청사진 공개

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.