• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 법'통합검색 결과 입니다. (122건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"韓 AI 기본법, 글로벌 경쟁력 약화"…오픈AI·MS 등 기업 연합, 7가지 문제 짚어

대한민국 인공지능(AI) 기본법이 산업 육성과 신뢰 기반 조성을 목표로 하고 있음에도 과잉 규제로 인해 국내 AI 생태계의 혁신을 위축시키고 경쟁력을 약화시킬 수 있다는 글로벌 IT 업계의 우려가 제기됐다. 30일 업계에 따르면 비즈니스 소프트웨어 연합(BSA)은 지난 21일 과학기술정보통신부에 AI 기본법 시행령 제정을 앞두고 11페이지 분량의 상세 의견서를 제출했다. BSA는 전 세계 주요 IT 기업들이 참여하는 정책 연합체로, 현재 마이크로소프트(MS), 오픈AI, 아마존웹서비스(AWS), 세일즈포스 등 글로벌 AI 선도 기업들이 회원사로 활동 중이다. 이번 의견서에는 ▲고영향 AI 정의 방식 ▲개발자·이용자 역할 구분 ▲외부 인증 의무 ▲콘텐츠 라벨링·워터마킹 규제 ▲연산량 기준 설정 ▲해외 기업의 국내 대리인 지정 요건 ▲정부의 조사 권한 등 총 7가지 핵심 쟁점에 대한 문제 제기와 개선 제안이 담겼다. BSA가 지적한 법의 핵심 쟁점은 '고영향 AI'의 정의다. 고영향 AI란 개인의 권리나 안전에 중대한 영향을 미칠 수 있는 인공지능 시스템을 의미하며 정부는 의료, 에너지, 핵물질 관리 등 특정 산업군을 중심으로 분류할 예정이다. 이에 대해 BSA는 단순히 사용 산업이 아니라 AI가 실제로 수행하는 중대한 의사결정 여부를 기준으로 '고영향'을 판단해야 한다고 주장했다. 일례로 의료 분야에 쓰인다고 해서 스팸 필터까지 고영향 AI로 간주돼선 안 되며 대출 심사나 주거 지원처럼 개인의 권익에 실질적 영향을 주는 사례에 초점을 맞춰야 한다는 입장이다. 특히 범용 인공지능(GPAI)은 원천적으로 고영향 AI로 분류되지 않도록 시행령에 명시해야 한다고 강조했다. GPAI는 특정 목적이 아닌 다양한 분야에 활용될 수 있도록 설계된 AI로, 이메일 작성이나 번역처럼 비교적 저위험인 작업에 쓰이는 경우가 많다. 이런 시스템에까지 고위험 시나리오를 전제로 규제 의무를 일괄 부과할 경우 기업에 과도한 부담이 될 수 있다는 지적이다. 또 다른 쟁점은 AI 개발사업자와 이용사업자의 책임을 구분하지 않은 점이다. 현행 법은 이들을 모두 '인공지능사업자'로 묶어 동일한 규제를 적용하고 있지만 BSA는 설계와 운영의 역할이 다른 만큼 의무도 달라야 한다고 지적했다. 실제로 AI 기본법 제34조는 위험 관리, 설명 가능성, 사용자 보호 등 기술적 의무를 모든 사업자에게 일괄 부과하고 있다. 실제로 시스템 구조나 한계를 알고 있는 건 개발자이며 이용자는 배포와 사용 환경을 책임지는 입장으로, BSA는 이런 현실을 반영해 역할별로 책임을 나눠야 한다고 주장했다. 사전 인증 요건도 주요 쟁점 중 하나다. AI 기본법은 고영향 AI 제공자가 사전 검증을 받도록 노력해야 한다고 명시하고 있지만 BSA는 외부 인증이 지식재산 유출, 개인정보 노출, 사이버 보안 위협 등 실질적인 리스크를 유발할 수 있다고 지적했다. 특히 아직 AI 감사 시장이 성숙하지 않아 전문성과 보안 역량이 부족한 기관에 민감한 데이터를 넘겨야 하는 구조는 현실적으로 위험하다는 설명이다. 대신 기업 내부에서 독립적으로 수행하는 테스트와 자체 인증을 장려하는 것이 보다 유연하고 안전한 대안이라는 입장이다. 콘텐츠 생성 AI에 부과되는 라벨링과 워터마킹 의무에 대해서도 우려가 나왔다. BSA는 국제적으로 통용되는 C2PA와 같은 콘텐츠 인증 표준과의 정합성을 우선 고려해야 한다고 강조했다. 한국이 별도의 독자적 기준을 도입하거나 가시적 워터마크 부착을 의무화할 경우, 콘텐츠 품질 저하와 경쟁력 약화로 이어질 수 있다는 점도 지적했다. 워터마크 자체가 쉽게 제거될 수 있다는 기술적 한계도 문제로 꼽았다. AI 시스템의 연산 성능 기준에 대한 규제 방식 역시 신중할 필요가 있다는 목소리도 담겼다. BSA는 단순히 누적 연산량이 많다는 이유로 고영향 AI로 분류하는 것은 부적절하며 AI의 실제 사용 목적과 맥락에 따라 규제 여부를 판단해야 한다고 주장했다. 일례로, 기상 예측처럼 고연산이지만 위험이 낮은 시스템까지 규제 대상에 포함되면 오히려 기술 발전을 저해할 수 있다는 것이다. 해외 기업에 적용되는 국내 대리인 지정 요건도 문제로 지적됐다. 현재는 일정 기준을 충족하면 고영향 여부와 무관하게 모든 해외 AI 기업이 국내 대리인을 지정해야 하지만 BSA는 이는 과도한 조치라고 판단했다. 실질적으로 한국 내에서 고위험 AI를 운영하는 경우에 한정해 적용하는 방식이 더 합리적이라는 입장이다. 이외에도 BSA는 과학기술정보통신부의 조사 권한 행사 방식에 대한 우려를 제기했다. 현행법상 단순한 민원 제기만으로도 기업 사무실이나 데이터센터 같은 핵심 인프라에 대한 조사가 가능하지만 이는 기업에 불필요한 규제 리스크를 초래할 수 있다. BSA는 명확한 위반 증거가 확인되고 법원의 사전 명령이 있을 경우에만 조사 권한을 행사해야 한다고 강조했다. BSA는 AI 기본법이 산업을 진흥하고 글로벌 경쟁력을 높이기 위한 핵심 기반임을 인정하면서도 지나친 규제는 오히려 혁신을 저해하고 기업 활동을 위축시킬 수 있다고 강조했다. ▲위험 기반의 정의 ▲역할별 책임 분리 ▲자율 인증 ▲국제 표준 채택 ▲유연한 연산 기준 ▲합리적 대리인 요건 ▲적법한 조사 절차 등 7대 원칙이 시행령에 충실히 반영될 경우, 기술 발전과 안전한 활용 간 균형을 확보할 수 있을 것으로 전망된다는 입장이다. 탐 션 홍 BSA 아태정책 매니저는 "AI 혁신과 신뢰 사이 균형이 필요하다"며 "이번 의견서가 한국의 AI 정책 수립에 건설적 논의 자료가 되길 바란다"고 말했다.

2025.03.30 08:42조이환

"AI 알고리즘, 안전성·신뢰성·공공성 확보해야”

국회 과학기술정보방송통신위원회 박민규 의원(더불어민주당)은 인공지능과 데이터 기반 기술의 급속한 발전에 따라 알고리즘의 안전성과 신뢰성, 공공성을 확보하기 위해 지능정보화 기본법 개정안을 대표발의 했다고 25일 밝혔다. 최근 금융, 의료, 채용, 행정 등 다양한 분야에서 알고리즘이 주요 의사결정 도구로 활용되고 있지만 알고리즘이 내포한 편향성이 사회적 불평등을 심화시키고 공정성을 저해할 수 있다는 우려가 지속적으로 제기되고 있다. 특히 고위험 인공지능의 경우 인간의 생명과 안전, 기본권, 재산 등에 심각한 영향을 미칠 수 있어 이에 대한 제도적 장치 마련이 필요하다는 지적이 크다. 박 의원이 발의한 개정안은 과학기술정보통신부 장관이 알고리즘의 안전성, 신뢰성, 공공성에 관한 기준과 지능정보기술 개발, 활용자와 지능정보서비스 제공자가 준수해야 할 사항을 담은 가이드라인을 마련하고 보급하도록 하는 내용을 담고 있다. 또한 지능정보기술을 개발하거나 활용하는 자와 지능정보서비스 제공자는 알고리즘 설계 운용 시 안전성, 신뢰성, 공공성 향상을 위해 노력해야 한다는 내용을 명시했다. 박 의원은 “알고리즘의 편향성과 오작동을 사전에 방지하고 공공성과 신뢰성이 확보된 지능정보기술 환경 조성을 위한 제도 마련의 필요성이 지속적으로 제기됐다”며 “이번 개정안 발의가 국민들의 일상과 밀접한 분야에서 알고리즘으로 인한 부정적 효과를 예방하기 위한 제도적 기반이 마련되는 계기가 될 것”이라고 말했다.

2025.03.25 17:21박수형

AI, 저작권자 될 수 있을까…안되는 3가지 이유

인공지능(AI)은 저작권자로 인정받을 수 있을까? 챗GPT를 비롯한 생성형 AI가 등장하면서 '창작은 인간 고유의 영역'이란 상식이 무너지고 있다. 그러다보니 AI도 저작권자가 될 수 있는 것 아니냐는 주장도 조금씩 고개를 들고 있다. 미국 컴퓨터 과학자인 스티븐 탈러(Stephen Thaler)도 이런 시도를 했다. 탈러는 자신이 개발한 AI 소프트웨어인 '창작기계(Creative Machine)'를 저작권자로 인정해달라는 소송을 제기해 관심을 끌었다. 하지만 미국 워싱턴DC 연방항소법원 3인 재판부는 지난 18일(현지시간) 만장일치로 “AI 소프트웨어는 저작권자로 인정할 수 없다”고 판결했다. 법원은 또 "모든 작품의 저작권은 인간에게만 부여될 수 있다는 것이 저작권법의 기본 취지"라고 설명했다. 특히 법원은 AI에게 저작권을 부여할 경우 ▲저작권 인정 기간 및 양도 대상 ▲저작권자의 국적 및 주거지 ▲저작자와 도구 구분 같은 몇 가지 면에서 문제가 생긴다고 지적했다. 탈러, 2018년 미국 저작권청에 AI 저작권자 신청했다 거절당해 이번 사건은 스티븐 탈러가 2018년 3월 미국 저작권청에 '창작기계'를 저작권자로 등록해달라고 요청하면서 시작됐다. 당시 그는 '파라다이스로 가는 최근 입구'를 고용저작물로 등록 신청했다. 고용저작물이란 업무상 저작물과 유사한 개념이다. 그런데 탈러가 등록 신청서에 저작자로 '창작기계'를 기재하면서 공방이 시작됐다. 당시 그는 AI 소프트웨어로 자동 창작했기 때문에 '창작기계'가 저작권자로 등록돼야 한다고 주장했다. 하지만 저작권청은 탈러의 요청을 받아들이지 않았다. '인간에 의한 창작물 요건(Human Authorship)'이 결여됐다는 것이 거절 이유였다. AI는 스스로 법적 계약의 주체가 될 수 없다는 것이다. 결정에 불복한 탈러는 곧바로 워싱턴DC 지역법원에 '창작기계'를 저작자로 인정해달라는 행정소송을 제기했다. 워싱턴DC 지역법원 역시 2023년 8월 탈러의 신청을 기각했다. 그러자 탈러는 다시 워싱턴DC 연방항소법원에 항소를 제기했다. 하지만 항소법원도 탈러의 신청을 기각하고, 저작권청의 손을 들어줬다. 미국 IT 전문매체 아스테크니카에 따르면 탈러는 이번 소송에서 “저작권법은 시대에 뒤떨어졌다”면서 “생산기계 같은 생성형 AI 소프트웨어가 만든 작품도 저작물로 인정하도록 바뀌어야 한다”고 주장했다. 그는 특히 “저작권법 어디에도 '저자'에 대해 규정한 대목은 없다. 따라서 AI만으로 창작한 작품도 저작권을 인정하는 것으로 해석할 필요가 있다”고 호소했다. 탈러는 “법원이 내 주장을 받아들이지 않을 경우엔 작가들이 창작 활동에 AI를 활용할 유인을 느끼지 못하게 될 것”이라면서 “이는 저작권의 취지에도 맞지 않는다”고 강조했다. 법원 "저작권 인정기간·양도 등 저작권법 조항 적용 방법 없어" 하지만 패트리샤 밀럿 판사는 판결문에서 “저작권법 규정은 저작권자가 인간일 때만 납득이 된다”면서 “따라서 인간만이 저작권자로 등록할 수 있다는 것이 저작권법을 가장 잘 이해한 것이다”고 지적했다. 밀럿 판사는 “저작권법 곳곳에는 인간만 저작권자로 인정해야 한다는 것을 시사하는 조항을 여러 곳에서 찾을 수 있다”면서 몇 가지 사례를 제시했다. 일단 저작권 인정기간은 저자 생존기간과 밀접한 관련이 있다. 현재 저작권은 저작자 사후 70년까지 효력이 인정된다. 그런데 기계는 '생명'이 없기 때문에 저작권 인정 기간을 계산할 방법이 없다. 밀럿 판사는 또 저작권 양도 조항도 고려할 필요가 있다고 지적했다. 현행 저작권법에는 배우자나 자식에게 저작권을 이양할 수 있다. 그런데 기계는 저작권 양도가 불가능하다. 저작권 인정의 기준이 되는 주거지나 국적 역시 AI 같은 기계에게는 적용할 방법이 없다. 이와 함께 밀럿 판사는 “탈러의 주장대로라면 AI는 저자이면서 동시에 저자가 사용한 도구가 되는 모순된 상황이 발생한다”고 꼬집었다. 저작권법은 기계를 '저자'가 아니라 '도구'로 간주하고 있다는 것이 법원의 판단이다. 그러면서 밀럿 판사는 탈러의 주장을 관철하기 위해선 법원이 아니라 의회나 저작권청에 호소할 필요가 있다고 지적했다. 현재 상황에선 AI에게 저작권을 부여하기 위해선 저작권법을 바꾸는 게 최상이라는 의미다. 이에 대해 탈러 측은 “판결에 강력하게 반대한다"면서 상고 의사를 밝혔다.

2025.03.20 15:43김익현

[기고] 인공지능, 변호사와 닮은 꼴일까

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 업무에 인공지능(AI)을 사용하는 것이 당연한 시대가 되고 있다. AI 서비스가 포털의 검색서비스처럼 대중화되고 있는 것을 보니 변호사보다 법을 더 잘 아는 AI도 곧 현실이 될 것으로 보인다. 그렇다면 똑똑한 AI가 변호사를 대신할 수 있느냐는 궁금증이 생긴다. 답은 현재로서는 법적 제약이 있어서 어렵다는 것이다. 자격을 갖춘 변호사만 법률사무를 처리할 수 있도록 변호사법이 제한하고 있어서 AI가 법률사무를 처리하는 것은 불법이기 때문이다. 법전을 뒤져야 법률을 알 수 있었던 예전과 달리 법령의 내용, 적용사례, 법원 절차나 제출서류, 작성방법 같은 것은 인터넷에서 쉽게 찾을 수 있게 됐다. 또 법절차에 관한 경험담도 검색 서비스를 통해 쉽게 접할 수 있게 됐다. 이같은 요즘 상황에서 자격을 갖춘 변호사만 법률사무를 처리할 수 있게 제한하고 있는 이유가 궁금할 수 있다. 여기에는 여러 가지 이유가 있을 수 있지만 가장 근본적인 이유는 법률관계가 사람에게 미치는 영향이 크고 중요하기 때문이다. 업무로서의 법률관계에 관한 해석이나 조언을 수행하기 위해서는 법률 지식이 있는 것만으로는 충분하지 않으며 의뢰인의 비밀을 지키고 법조 윤리를 지키는 전문가에게만 허용해야 안전하다는 설명이다. 실제로 변호사는 법률 지식에 관한 시험 통과만을 요구받지 않는다. 지속적으로 윤리교육을 받을 의무, 특수한 상황에서는 수임 자료를 제출해서 점검을 받을 의무가 부과되는 등 간접적인 형태로 직업윤리가 요구되고 있다. 또 협회를 통한 자율적인 감시도 이루어지고 있다. 그런데 얼마 전 제정돼 오는 2026년 1월에 시행되는 AI기본법은 AI 서비스에 윤리와 신뢰성에 관한 권고나 의무를 구체적으로 요구한다. 그런데 이는 변호사에게 요구되는 윤리와 닮은 점이 있다. 본래 윤리란 법으로 그 내용을 확정하기 어렵기 때문에 관련 규정을 법률에서 정하는 경우가 많지 않다. 그런데 AI기본법에서는 AI 윤리를 비록 장려 형태지만 중요사항으로 규정하고 있다. 또 서비스가 AI에 기반해 운용된다는 점과 AI 결과물이라는 점을 이용자에게 알려야 하는 투명성 의무, AI의 위험과 안전사고에 대한 대응 체계를 갖추고 이행 결과를 정부에 제출해야 하는 안전성 확보에 관한 의무를 일정 요건에 해당하는 사업자에게 추가로 부과하고 있다. 이는 AI서비스가 이용자에게 중대한 영향을 줄 가능성이 있기 때문에 서비스가 윤리를 준수하고 외부 견제를 받도록 간접적인 안전조치를 취한 것으로 보인다. 변호사는 법률 지식과 자격시험 통과뿐만 아니라 윤리 준수와 외부 견제를 요구받는다. 이는 사용자에게 중요한 영향을 미치는 AI 서비스에 투명성과 안전성 조치를 요구하는 것과 닮아 있다. 더 넓게 보면 공통점은 보다 많아진다. 온라인에서 법률 정보, 판례, 해설서를 검색하고 제공하는 서비스는 변호사 자격 없이도 운영할 수 있다. 다만 구체적인 법률관계를 해석하고 자문하는 등 본격적인 법률 업무를 수행하려면 변호사 자격이 필요하다. 마찬가지로 AI 서비스도 일반적인 경우에는 특별한 제약이 없지만 사회적으로 중요한 영향을 미치는 서비스라면 정부가 개입하겠다는 태도를 보이고 있다. 향후에도 이러한 흐름은 계속될 가능성이 크다. 정부가 AI의 구체적인 내용에 개입하는 것은 어렵고 적절하지도 않다는 점을 생각하면 미래에는 법률 사무처럼 중요한 서비스를 위해 AI가 일정한 자격시험을 통과하는 제도가 생기는 것이 아닐까 섣부른 추측을 해 본다. 나아가 AI가 계속 발달한다면 변호사 자격까지 갖추고 법률사무를 처리하게 되는 것도 허황한 꿈은 아닐수 있다는 생각이 든다.

2025.03.17 14:28법무법인 태평양 류광현

"산업 진흥 vs 규제"…KOSA, 기업 우려 속 AI 기본법 의견수렴 창구 개설

한국소프트웨어산업협회(KOSA)가 인공지능(AI) 기본법 하위법령 마련을 위해 의견을 모은다. 기업들이 AI 기본법의 지나친 산업규제 가능성에 우려를 표하는 가운데 다양한 이해관계자의 목소리를 직접 반영해 균형 잡힌 법령을 마련하려는 의도다. KOSA는 AI 기본법 시행에 앞서 후속 입법을 위한 'AI 기본법 하위법령 의견수렴 창구'를 개설했다고 6일 밝혔다. AI 기본법은 지난 1월 21일 국회를 통과해 오는 2026년 1월 22일 시행될 예정이다. 다만 '고영향 AI'의 정의와 AI 사업자의 책무 등 주요 조항의 구체적 적용 방식이 정해지지 않은 만큼 이에 대한 의견을 산업계에서 수렴할 필요성이 제기되고 있다. 특히 기업들은 지나친 규제가 국내 AI 경쟁력을 약화시킬 가능성을 경계하고 있다. 특히 ▲AI 투명성 확보 의무 ▲AI 안전성 확보 의무 ▲고영향 AI 기준 및 사업자 책무 ▲AI 영향평가 등 핵심 쟁점이 산업 성장에 미칠 영향을 면밀히 검토해야 한다는 목소리가 크다. 이에 KOSA는 AI 모델을 개발하는 기업뿐 아니라 AI를 활용하는 수요기업, 시민단체 등 폭넓은 의견을 듣겠다는 방침이다. AI 거버넌스 및 인재 육성 정책과 관련된 의견도 수렴한다. KOSA는 이번 의견수렴 결과를 AI 기본법 하위법령 정비단과 관계부처에 전달할 계획이다. 의견을 제출하려는 기업 및 관계자는 KOSA 홈페이지를 통해 참여할 수 있다. 조준희 KOSA 회장은 "AI 기본법 하위법령은 한국 AI 산업의 미래를 결정할 핵심 틀이 될 것"이라며 "산업계와 시민사회의 다양한 의견을 적극 반영해 안전성과 혁신이 조화를 이루는 법령을 마련할 수 있도록 노력하겠다"고 밝혔다.

2025.03.06 16:49조이환

"中에 220배 뒤처져"...자율주행차 발목잡는 규제

“지난해까지 중국 바이두가 쌓은 자율주행 운행 기록이 1억1천만km였다. 국내 1위 업체로 평가받는 오토노머스에이투지가 50만km로 약 220배 차이가 난다. 방대한 데이터 차이를 극복하려면 양질의 데이터를 수집할 수 있게 해야 한다.” 이상동 한국자율주행산업협회 팀장은 지난 27일 열린 '자율주행 산업 지원 국회 토론회'에서 이같이 말했다. 최근 중국 스타트업이 내놓은 AI 모델 '딥시크'가 저성능 칩으로 충격적인 성능을 보여주자 BYD와 지리 등 현지 자동차 기업들이 잇따라 자율주행 기술에 딥시크를 활용하겠다고 나섰다. 일찍이 자율주행 기술을 내세워온 테슬라도 지난해 말 완전자율주행(FSD) 소프트웨어 최신 버전을 업데이트하고, 오는 6월 이를 기반으로 한 로보택시 서비스를 예고하는 등 기술 고도화에 집중하는 추세다. 해외 기업들이 실제 주행 데이터를 수집하고, 이를 토대로 기술을 고도화하는 반면 우리나라는 데이터 수집 제한 규제로 양적 격차가 크게 벌어지고 있다는 지적이다. 이상동 팀장은 “AI 기업과 자율주행 기업, 완성차 기업들이 경계선 없이 넘나들면서 협업을 하며 AI 학습을 위한 데이터 수집과 활용이 중요하게 됐다”며 “국내에 자율주행차가 돌아다니려면 국내 환경에 맞는 최적화 데이터가 꼭 필요하다”고 강조했다. 특히 국가 차원에서 양질의 주행 데이터를 수집하는 것이 바람직하다고 봤다. 영세한 스타트업도 산업에 진입할 수 있게 하자는 취지다. 지난 2023년 개인정보보호법 개정에 따라 '이동형 영상정보처리기기'라는 개념으로 주행 영상을 데이터로 활용할 수 있는 법적 근거가 마련됐다. 그러나 데이터의 질적 측면에서 미국, 중국 등 자율주행 기술에 공들이는 국가 대비 여건이 불리하다는 지적이다. 이 팀장은 “테슬라로 예를 들면, 500만대 차량이 도로를 주행하며 사고가 발생하면 당시 영상을 그대로 본사에 전송함에 따라 그 데이터를 자율주행 AI 성능 개선에 활용하고 있다”며 “이런 회사와 규제 샌드박스 차량 몇십 대의 주행 데이터를 토대로 기술을 개발하는 (우리나라) 회사 간 경쟁력이 어디에 있겠나”라고 강조했다. 특히 현 제도 하에서 주행 영상 데이터를 활용할 때 개인정보 비식별화 처리 과정을 거치게 하는 점을 문제 삼았다. 비식별 처리된 영상을 학습한 AI보다 원본 영상을 학습한 AI가 객체 인식이나 주행 판단의 정확도가 17% 이상 높아졌다는 연구 결과를 소개했다. 이 팀장은 “특히 야간 주행, 악천우 등 복잡한 도심 환경에서 원본 주행 영상의 활용 가치가 더욱 올라간다”고 덧붙였다. 우리나라에선 설정된 규칙에 따라 자율주행 AI 모델이 주어진 상황을 인지하고 제어하는 반면, 테슬라 등 선도 기업들은 AI가 사람처럼 새로운 상황에서도 적절한 판단을 할 수 있도록 엔드투엔드(E2E) 방식을 쓰고 있는 점에도 주목했다. E2E 방식 자율주행 AI 성능을 개선하기 위해 더욱 양질의 주행 데이터가 요구되고 있다는 분석이다. 이 팀장은 “결국 모든 사례를 사전에 정의할 수 없기 때문에, 정의된 내용을 벗어나는 사례에서 자율주행 AI가 어떻게 대응할지 모른다는 기술적 어려움이 있다”고 첨언했다. 규제 샌드박스를 통해 원본 주행 데이터 활용이 일부 허용되고 있지만, 대규모 개발 프로젝트에는 한계가 있어 많은 기업들이 비식별 처리된 영상 데이터를 사용할 수밖에 없는 상황이다. 이 팀장은 “규제 샌드박스는 일시적인 예외를 두는 제도인데 자율주행 산업은 계속 고도화해나갈 산업”이라며 “원본 주행 데이터 활용에 대한 지속적인 법적 근거가 마련돼야 한다”고 주장했다.

2025.02.28 18:37김윤희

[현장] AI 기본법 시행령 초안, 3월에 나온다…"세밀한 하위 법령 마련 필요"

지난해 12월 세계 두 번째로 인공지능(AI) 기본법이 우리나라에서 제정된 가운데 실효성 있게 추진되기 위해선 입법취지를 충실히 반영하는 방향으로 구체적인 사항들이 규정될 필요가 있다는 지적이 나왔다. 단순히 해외 규제들을 따라가는 것이 아니라 불확실성이 적은 국내 환경에서 먼저 법과 제도를 준수할 수 있는 기반을 세밀하게 마련해야 한다는 주장이다. 정진우 트웰브랩스 공동창업자는 26일 오전 국회 제2소회의실에서 진행된 'AI 기본법 현안 논의 토론회'에 참여해 "AI 산업의 지속적인 성장을 위해서는 기본법을 토대로 한 하위 법령 마련, 자원의 효율적 배분, 국가 전략의 체계적 실행이 필수적"이라며 "산업계의 가장 큰 우려는 AI의 신뢰성 확보와 관련된 법적 요건"이라고 밝혔다. 그러면서 "특히 고영향 인공지능 사업자의 책무(제34조)와 관련해 향후 규제가 강화될 가능성이 있다는 점이 고민"이라면서도 "다만 최소한의 법적 처벌 요건(제31조 1항 및 제36조 1항)만을 규정하고 있어 단기적으로는 산업계에 부담이 크지 않을 것으로 보인다"고 부연했다. AI 기본법은 AI 개발과 활용에 관한 기본원칙과 정부의 지원 방향을 규정한 법으로, 내년 1월 22일부터 시행될 예정이다. AI 관련 법안이 시행되는 것은 유럽연합(EU)에 이어 전 세계 두 번째로 ▲AI의 건전한 발전과 신뢰 기반 조성을 위한 추진체계 ▲인공지능기술 개발 및 산업 육성 ▲AI 윤리 및 신뢰성 확보 등을 중점적으로 다루고 있다. 공진호 과기정통부 과장은 "올해 1월 하위법령 정비단을 구성해 상반기까지 하위법령 및 가이드라인을 마련하는 것을 목표로 하고 있다"며 "이르면 3월 중에 시행령 초안을 마련해 다양한 의견을 수렴할 수 있도록 할 것"이라고 밝혔다. 이어 "하위법령은 국가 AI 경쟁력 강화라는 입법 취지를 살릴 수 있도록 방향을 잡아가고 있다"며 "기업들에게 불필요한 규제가 있지 않도록 시행할 예정으로, 기업들이 이에 대비할 수 있는 시간을 충분히 가질 수 있도록 노력할 것"이라고 덧붙였다. 김민준 랭코드 대표는 이날 토론회에서 AI 기본법에 영향을 크게 받는 AI 사업자 외에 AI 모델이나 제품을 도입해 사용하는 수요기업들이 아직 법규나 제도에 대해 인지가 낮다는 점을 지적했다. 이에 향후 정책 시행 및 거버넌스 차원에서 이들을 고려할 필요가 있다고 주장했다. 김 대표는 "글로벌 진출을 목표하는 스타트업 입장에서는 AI 기본법을 비롯한 국내 법·제도가 글로벌 시장에서 사업 기회와 경쟁 우위를 확보하는 요소가 될 수 있다"며 "다만 각 수요기업 및 사업자가 개별적으로 대응하기에는 (법 적용에) 어려움이 있어 정부 차원에서 자율 인증 프로그램, 컨설팅, 표준화된 가이드라인 등을 제공하면 실무 현장에서 훨씬 수월하게 대응할 수 있을 것"이라고 강조했다. 박성재 로폼 AI센터장은 AI 기본법이 내년 1월 시행되기 전에 '고영향 AI' 범위에 대한 해석도 명확히 할 필요가 있다고 지적했다. 현재 규정에선 '고영향 AI' 범위가 광범위하게 확대될 가능성이 있는 만큼, 민간 자율 AI윤리위원회 등 민간 사업자가 참여한 자율 단체를 통해 고영향 AI 범위에 대한 산업계의 의견이나 최신 AI 기술 실무가 반영될 필요가 있다고 피력했다. 또 박 센터장은 스타트업 등 관련 중소기업 등도 참여할 수 있는 열린 구조를 AI 기본법이 지향해야 AI 산업이 활성화 될 수 있을 것이라고 주장했다. 또 12조에 규정된 AI 안전연구소는 제재를 위한 기관이 아닌 AI의 안전한 발전을 위한 실질적인 지원 기관으로서 역할을 수행할 수 있어야 한다고 봤다. 더불어 AI 기본법 제16~17조에서 기업 지원 내용이 포함된 것과 관련해선 중소기업에 대한 체계적인 지원 체계가 구축될 필요가 있다고도 강조했다. 또 글로벌 협력을 강화하기 위해 글로벌 표준 마련과 함께 국제 협력 체계를 구축할 필요가 있다는 점도 짚었다. 박 센터장은 "인적, 물적 자원이 부족한 중소기업들에게 검증·인증 절차도 큰 부담 요소로 작용할 가능성이 있고, 이로 인해 AI 생태계의 신뢰성과 안전성을 저해할 수도 있다"며 "신산업인 AI 시장에 많은 스타트업들이 뛰어들고 있다는 점을 고려하면 현재의 법안은 과도한 부담으로 작용할 우려가 있다"고 밝혔다. 일부 토론자들은 AI 인재 양성을 위해서도 정부와 국회의 적극적인 지원이 필요하다는 점을 강조했다. 특히 우리나라 인재의 해외 유출이 심각하다는 점을 지적하며 제도 개선이 시급하다고 지적했다. 배순민 KT AI 퓨처 랩장은 "한국은 인재 해외 유출로 인해 투자 지표가 주요국에 점차 밀리고 있는 상황"이라며 "AI 기술의 글로벌 경쟁력 확보와 산업 발전을 위한 투자 확대 및 인재 확보 전략이 필요하다"고 피력했다. 이어 "AI 인재 확보는 국가 경쟁력을 좌우하는 중요한 요소인 만큼 실력있는 인재 양성을 위한 대학의 AI 학과 신·증설 및 적극적인 우수 인재 확보 방안이 필요하다"며 "AI 기술 선도 국가, 기업의 기술을 빠르게 따라잡기 위해서는 기술의 투명성과 확산, 생태계 구성이 반드시 필요하고, 이를 위한 오픈소스 생태계를 강화하고 정부가 전략적으로 지원하는 것도 필요하다"고 부연했다. 정진우 트웰브랩스 공동창업자 역시 "AI 경쟁력을 구성하는 핵심 요소는 데이터, 컴퓨팅 파워, 인재, 글로벌 경쟁력"이라며 "기술 이민 활성화, 해외 빅테크 기업들의 글로벌 AI 연구개발 센터 유치 등을 통해 AI 인재들이 한국에 자리 잡을 수 있도록 입법 및 지원 정책이 필요하다"고 말했다. 신상렬 국가AI위원회 국장은 국제적 동향을 고려해 AI 기본법의 하위법령이 규제보다 '진흥'에 초점이 맞춰져야 한다고 강조했다. 규제 대상‧수준이 AI 산업 활성화에 미칠 영향이 크다고 봐서다. 신 국장은 "AI 기본법에서 규정하고 있는 '고영향 인공지능에 대한 기준', 'AI 사업자 책무' 등은 하위법령 제정 시 명확화를 통해 규제 범위의 불확실성을 해소하고 가이드라인에서는 고영향 인공지능의 적용범위를 좁게 해석하는 방향으로 규정할 필요가 있다"며 "투명성‧안전성‧신뢰성 확보를 위한 의무 관련해서도 사업자 등 이해관계 당사자의 충분한 의견수렴을 거쳐 합리적인 수준에서 결정하는 것이 필요하다"고 밝혔다. 또 국가AI위원회에 대해선 "국가 AI 정책의 컨트롤타워로서 범부처 AI 역량을 결집해 정책 조율, 기술 개발, AI 활용 촉진, 고영향 AI 규율 등에 관한 사항을 심의·의결하는 역할을 할 것"이라며 "급변하는 AI 환경에 적절히 대응하고 AI 기본법 시행을 준비하기 위해 과기정통부와 함께 하위법령 마련을 신속 추진할 것"이라고 설명했다.

2025.02.26 12:46장유미

[현장] "AI, 국가백년지대계"…AI 기본법 유효성 논의 위해 국회의원들 모였다

"지난해 12월 국회가 인공지능(AI) 기본법을 통과시키며 새로운 전환점을 만들어 냈습니다. AI 기본법에 포함된 많은 내용들이 유효, 적절하게 시행될 수 있도록 이번 토론이 중요한 계기가 될 수 있길 바랍니다." 조준희 한국소프트웨어산업협회(KOSA) 회장은 26일 오전 국회 제2소회의실에서 진행된 'AI 기본법 현안 논의 토론회'에 참석해 이처럼 강조했다. 조 회장은 "2023년 초 '챗GPT'로 촉발된 AI 열풍은 잠깐 불어온 단순한 바람에 그치지 않고 이제 전 세계의 가장 중요한 화두로 견고하게 자리 잡아 가고 있다"며 "규모의 경제를 앞세운 선도 국가들의 막대한 물량 공세에 다소 위축되지 않을까 우려도 있었지만, AI 기본법 통과가 새로운 전환점을 만들어 냈다"고 운을 띄었다. 이어 "정부도 이에 화답해 국가AI컴퓨팅센터에 약 2조원가량의 민관 투자를 예정했고, 국가AI위원회에선 '월드베스트 LLM 프로젝트' 등을 포함한 대대적인 AI 정책을 발표하는 등 AI가 명실상부한 국가백년지대계임이 드러났다"며 "이에 발맞춰 업계도 국가 AI 경쟁력을 이른 시일 내에 글로벌 최상위권으로 끌어올리겠다는 다짐을 하고 있다"고 덧붙였다. 조인철 더불어민주당 의원가 주최한 이날 토론회에는 위원장인 최민희 의원을 비롯해 최형두 의원, 황정아 의원 등 국회 과학기술정보방송통신위원회 소속 의원들이 대거 참석해 눈길을 끌었다. 특히 조 의원은 업계가 숙원으로 삼고 있던 AI 기본법을 의정활동 제1호 발의 법안으로 제출하는 등 AI 산업에 상당한 관심을 보이고 있는 인물로 평가 받고 있다. 조 의원은 "'대한민국의 위기'라는 단어가 유독 자주 들리는데 미국은 AI 분야의 압도적 강자로 자리매김했고, 중국은 '딥시크'라는 충격으로 경쟁에 불을 지폈다"며 "이런 각축에 끼지 못한다면 향후 수십 년을 따라만 가다가 기회를 놓칠 수 있다는 불안감이 있다"고 말했다. 그러면서 "대한민국은 늘 위기 앞에 강했고 늘 선구안이 함께 했다는 점에서 AI 기본법이 족쇄가 아닌 청사진이 돼야 할 것"이라며 "세계 두 번째로 제정된 AI 기본법이 보강해야 할 부분이 많지만, 신산업 성장을 방해해선 안 되고 사용자의 권익을 무방비하게 훼손하도록 방치해서도 안될 것"이라고 강조했다. 또 그는 "우리 숙제는 균형점을 찾는 것"이라며 "AI 기본법이 민간의 과감한 도전을 뒷받침할 수 있는 날개가 될 수 있도록 의정 활동에 힘을 보탤 것"이라고 덧붙였다. 이날 참석한 여러 의원들도 국내 AI 기술 발전을 위해 힘을 모으겠다는 의지를 드러냈다. 또 2000년대 초 IT 혁명 시기에 네이버, 카카오 같은 기업들이 등장해 성장했던 것처럼 AI 시대를 맞아 다양한 지원책을 마련해 또 다른 많은 기업들의 성장을 이끌어내겠다는 의지도 내보였다. 최 위원장은 "고위험 AI를 고영향 AI로 개념을 바꾸는 과정에서 여야 간 토론이 많았다"며 "국회가 법과 제도로 기술 발전을 막는 것은 있을 수 없는 일이라고 보고 AI 기본법을 제정했다"고 밝혔다. 이어 "이젠 어떤 것을 보완해야 하는지 심도있게 논의해야 할 필요가 있다"며 "앞으로 우리나라가 AI로 제2의 전성기가 올 수 있기를 기대한다"고 덧붙였다. 황 의원도 이날 토론회에 참석해 현재 AI 춘추전국시대에 접어든 만큼 적절한 시기에 지원책이 마련될 수 있도록 적극 나서겠다는 의지를 드러냈다. 황 의원은 "지금이 AI 지원의 골든타임이라고 생각한다"며 "우리가 거대자본을 이길 수 있을까에 대한 가능성을 딥시크 쇼크에서 봤던 만큼, 우리도 변화, 도전 시기에 기회를 붙잡을 수 있도록 국회에서 입법과 예산, 정책으로 적극 지원하도록 노력할 것"이라고 강조했다. 'AI 기본법으로 연결되는 AI 혁신과 안전'이란 주제로 진행된 이날 토론회에선 이상욱 한양대학교 철학과 교수의 강연도 진행됐다. '혁신과 안전이 공존하는 AI 시대'라는 주제로 진행된 이 강연에선 AI 윤리의 바람직한 방향과 올바른 활용성에 대한 설명이 주를 이뤘다. 이 교수는 "AI를 활용하면서도 인간의 역량을 높이는 방안에 대한 고민과 노력들이 필요하다"며 "특히 착한 혹은 나쁜 AI 구별의 모호성이 부각되고 있는 '이중 사용(dual use)' 문제와 디지털 기술의 과도한 사용에 따른 청소년 유해성 문제를 집중적으로 살펴봐야 한다"고 주장했다. 이어 "혁신적 기술이 인류 발전에 항상 도움이 되는 것은 아니라는 점도 고려해야 한다"며 "AI가 인간을 대체하는 것이 아닌 상호보완적 관계를 맺으며 더 많은 가치를 창출할 수 있는 '증강'의 개념으로 활용해야 한다"고 덧붙였다. 그러면서 "AI 기본법이 우리가 보다 바람직한 AI 시대를 만들어 나가는 데 도움이 되길 바란다"며 "AI가 인류 복지에 지대하게 기여할 수 있는 잠재력이 있지만, 바람직한 미래상을 가지고 거버넌스를 잘 만들었을 때 올바른 방향으로 갈 수 있을 것"이라고 피력했다.

2025.02.26 11:43장유미

[AI 리더스] 최형두 의원 "불필요한 규제 완화, 韓 도약 기회…제조 AI로 글로벌 선도해야"

"인공지능(AI) 산업 발전을 위해 불필요한 규제는 줄이고 실질적 피해를 방지하는 균형 있는 정책이 필요합니다. 특히 우리에게 강점이 있는 제조를 위한 거대행동모델(LAM)과 안정적인 전력 공급을 통해 글로벌 AI 경쟁력을 갖춰야 합니다. 이를 위해 경남·마산을 AI 제조 혁신 거점으로 키우고 국가 차원의 투자와 민간 협력을 확대해야 합니다." 최형두 국민의힘 의원은 최근 기자와의 인터뷰에서 인공지능(AI) 산업 경쟁력을 높이기 위한 전략을 제시했다. 그는 AI 규제 혁신과 인프라 확충 제조 AI 육성을 통해 한국이 글로벌 AI 선도국으로 도약해야 한다고 강조했다. 25일 업계에 따르면 AI 기술이 빠르게 발전하면서 산업 전반에 걸쳐 규제와 인프라 확충이 핵심 과제로 떠오르고 있다. 이에 최형두 국민의힘 의원은 규제 개혁, 전력 인프라 확충, 제조 LAM 육성, 지역 AI 클러스터 구축 등의 종합 전략이 필요하다고 강조했다. 그는 디지털 교과서 도입에 대한 오해, 스타트업 노동 규제, 데이터센터 전력 수급 불안 등을 주요 해결 과제로 지목했다. 또 국가 AI 경쟁력 제고를 위해 경남 마산을 AI 제조업 혁신 거점으로 조성하기 위해 디지털 자유무역지역 및 아시안 공학기술원(AIT) 설립을 추진 중이라고 밝혔다. "AI 규제, 혁신을 저해하지 않는 균형 필요" 최 의원에 따르면 지난해 12월 국회에서 통과된 AI 기본법은 현재 구체적인 시행을 위해 하위법령 정비단이 구성돼 논의를 진행 중이다. 다만 법안에 포함된 '고위험 AI' 개념은 입안 단계에서는 모호하게 규정됐던 상황이어서 기술 발전을 저해할 수 있다. 그는 AI의 위험성이 과장돼 아직 존재하지 않는 상상 속의 위협을 근거로 연구개발을 규제하는 것은 바람직하지 않다고 주장했다. 실제로 그는 최근 세계적 AI 전문가인 얀 르쿤 메타 AI 수석과 만나 규제가 산업 발전에 미칠 영향을 심도 있게 다뤘다. 논의 과정에서 르쿤 교수 역시 불필요한 규제는 AI 연구개발을 저해할 뿐이며 실질적인 피해를 방지하는 방향으로 초점을 맞춰야 한다는 점에서 공감했다고 밝혔다. 최 의원은 "최근 함께 논의했던 르쿤 교수는 AI 연구개발을 규제해서는 안되고 오픈소스 AI 플랫폼을 제한하면 AI 산업 전반이 위축될 것이라고 역설했다"며 "기술 자체가 아니라 딥페이크, 허위정보 유포, 사기 등 실제 피해를 초래하는 행위를 중심으로 규제를 적용해야 한다"고 지적했다. 디지털 재난방지법의 필요성도 강조됐다. 이 법은 기간통신·부가통신·데이터센터 등으로 분산된 기존 재난관리 체계를 통합해 디지털 인프라의 안정성을 강화하는 것을 목표로 한 법으로, 최 의원은 판교 데이터센터 화재 이후 관련 법·제도의 개선 필요성을 제기하며 법안 발의를 주도한 바 있다. 그는 "디지털 재난을 선제적으로 대비하고 신속한 복구가 가능하도록 법적 일관성을 확보해야 한다"고 강조했다. 디지털 교과서 도입을 둘러싼 오해에 대해서도 입장을 분명히 했다. 최 의원은 일각에서 제기하는 디지털 교과서를 활용한 학생들의 게임 남용 가능성이 사실과 다르다고 지적했다. 그는 "야당을 비롯해 일각에서는 학생들이 디지털 교과서를 이용해 게임을 할 가능성이 있다고 주장하지만 이는 사실과 다르다"며 "디지털 교과서는 K-클라우드와 연동돼 있어 원천적으로 게임 접속이 불가능하다"고 강조했다. 이어 "야당이 근거 없는 우려를 조장하며 잘못된 프레임을 씌우고 있다"고 비판했다. 이같이 최 의원은 AI 산업 발전과 규제의 균형이 무엇보다 중요하다고 강조했다. 완전한 규제 부재는 국민의 안전과 정보 보호 측면에서 위험을 초래할 수 있지만 무조건적인 규제 강화는 연구개발을 위축시켜 산업 성장을 저해할 수 있다는 것이다. 그는 "AI 규제는 안전과 혁신의 균형을 맞춰야 한다"며 "산업 발전을 저해하지 않으면서도 국민을 보호할 수 있는 실질적인 정책이 필요하다"고 강조했다. AI 성장, 핵심은 인프라 확충과 인재 확보…전력·노동 환경 개선 시급 최 의원에 따르면, AI 산업이 급속도로 성장하면서 데이터센터의 전력 수요도 빠르게 증가하고 있다. 그는 단순히 AI 반도체를 확보하는 것만으로는 한계가 있으며 이를 효과적으로 활용할 수 있는 제조 AI 전략과 안정적인 전력 공급 체계 구축이 필수적이라는 입장을 밝혔다. 그는 "AI 연산량 증가로 인해 데이터센터의 전력 소비가 폭발적으로 늘어나고 있다"며 "안정적인 전력 공급이 없으면 AI 산업이 글로벌 경쟁력을 잃는다"고 경고했다. 실제로 글로벌 기업들은 전력을 확보하기 위해 사력을 다하고 있는 상황이다. 마이크로소프트(MS)는 자체 소형 원자로(SMR)를 도입하고 있으며 구글은 재생에너지 연동을 확대하는 방식으로 AI 연산 인프라를 구축하고 있다. 최 의원은 "우리도 원전과 재생에너지를 병행 활용해 AI 데이터센터가 안정적으로 운영될 수 있도록 해야 한다"고 주장했다. 특히 원자력 발전은 AI 산업 전력 수급 문제를 해결할 현실적인 해결책으로 꼽힌다. 최 의원은 "한국형 원전은 체르노빌이나 후쿠시마와 다르게 높은 안전성을 갖추고 있다"며 "재생에너지는 기상 조건에 따라 변동성이 크기 때문에 이를 보완하는 안정적인 전력 공급원이 반드시 필요하다"고 말했다. AI 산업 전략과 관련해 최 의원은 "초거대 AI 경쟁에서 한국이 미국과 중국을 따라가기엔 현실적 한계가 있다"며 "다만 제조업 강국으로서 제조 AI인 LAM 분야에서 글로벌 선도국이 될 기회가 있다"고 주장했다. 이어 "LLM 역시 꾸준한 발전은 물론 필요하나 국가적 역량이 제한된 상황에서 단순히 '패스트 팔로워'가 아니라 '퍼스트 무버'가 되기 위해서는 많은 고민이 필요하다"고 덧붙였다. 또 그는 중국 AI 스타트업 딥시크 사례를 언급하며 AI 반도체를 단순히 개발하는 것보다 이를 어떻게 활용할 것인지가 더 중요하다고 지적했다. 딥시크는 자체 연구비를 최소화하면서도 기존 AI 모델을 효과적으로 학습시켜 오픈AI를 위협하는 수준의 성과를 냈다. 최 의원은 "단순히 AI반도체뿐 아니라 이를 활용한 제조 AI 최적화 기술을 확보해야 한다"고 강조했다. 최근 국내 AI 산업의 인재 유출이 빈번해지는 가운데 최 의원은 노동 규제 개혁의 필요성 역시 강조했다. 그는 "네이버, LG 같은 국내 기업에서 어렵게 키운 인재들이 시니어 단계에서 결국 실리콘밸리로 떠나는 현실을 바꿔야 한다"며 "이를 위해 연구 인력에게 충분한 보상을 제공할 수 있는 환경을 조성하고 해외 우수 인재를 유치할 수 있는 적극적인 정책이 필요하다"고 밝혔다. 단순한 보상 문제를 넘어 노동 환경 개선도 중요하다고 강조했다. 최 의원에 따르면 IT 업계 내부에서도 연구·개발 직군에 한해 더 많은 근무 시간을 허용해야 한다는 의견이 일부 나오고 있다. 그는 업계 관계자들 사이에서도 "규제가 아니라 자율적으로 더 일할 수 있는 환경이 필요하다"는 주장이 존재한다는 점을 짚으며 혁신 산업 특성을 반영한 노동 정책이 필요하다고 지적했다. 최 의원은 "AI 스타트업과 연구소에서 7시간 노동만 강제하면 실리콘밸리와 경쟁할 수 없다"며 "혁신 산업에는 유연한 근무 환경이 보장돼야 한다"고 강조했다. 제조 AI, 마산을 테스트베드로…디지털 자유무역지역 '추진' 최 의원은 경남·마산이 제조 AI의 최적의 테스트베드라고 강조하며 이를 AI 산업 중심지로 육성하기 위한 구체적인 전략을 제시했다. 그는 제조업 강점을 활용해 스마트 공장과 AI 테스트베드를 구축하고, 이를 디지털 자유무역지역으로 발전시켜 글로벌 기업들이 참여할 수 있도록 해야 한다고 밝혔다. 그는 "창원과 마산은 한국의 대표적인 제조업 중심지로, 항공·선박·자동차·원전 산업이 밀집돼 있다"며 "이미 스마트 공장 기반이 형성돼 있어 제조 AI와 결합하면 산업 혁신을 선도할 수 있다"고 말했다. 그는 제조 공정 데이터 활용이 핵심이라고 강조했다. AI를 활용해 생산 데이터를 정제하고 최적화하면 글로벌 시장에서도 경쟁력을 갖출 수 있다는 분석으로, 데이터를 활용한 스마트 제조가 단순한 자동화를 넘어 AI가 직접 분석하고 최적 생산 방식을 찾아내는 단계로 갈 수 있다는 것이다. 이를 위한 인재 양성 전략으로 그는 아시안 공학기술원(AIT) 설립 계획을 밝혔다. 그는 "카이스트 등과 협력해 AIT를 설립하고 동남아시아를 포함한 해외 공학 인재를 적극 유치해야 한다"며 "실현만 된다면 이를 통해 제조 AI를 연구·개발할 우수 인력을 국내에서 양성하고 글로벌 경쟁력을 확보할 수 있다"고 밝혔다. 최 의원은 마산을 디지털 자유무역지역으로 지정하는 방안도 추진하고 있다. 이로써 글로벌 테크 기업과 중견 제조업체들이 AI 및 제조 데이터를 활용할 수 있는 환경을 조성하겠다는 계획이다. AI 산업 발전을 위한 정부 재정 투자 확대 필요성도 강조했다. 현재 야당은 추가경정예산(추경) 편성을 요구하며 총 35조원 규모의 예산안을 제시한 상태다. 다만 이 중 상당 부분이 미래를 위한 AI·반도체·첨단산업 등 미래 산업 투자 비중은 상대적으로 낮아 국가 성장에 제약이 발생할 수 있다는 것이 최 의원의 분석이다. 최 의원은 "민주당이 주장하는 추가경정 예산 35조원 중 AI에 대한 직접 투자 비중이 너무 낮다"며 "AI 데이터센터 구축·반도체 연구개발·스타트업 지원 등에 전략적으로 집중 투자해야 한다"고 지적했다. 또 그는 정부 예산만으로는 한계가 있다며 민간 기업의 참여를 유도하기 위한 특수목적회사(SPC) 활용 방안을 제시했다. 이는 국내외 기업들이 AI 인프라에 적극적으로 투자할 수 있도록 법적·제도적 환경을 마련하는 전략이다. 최형두 국민의힘 의원은 AI 산업이 단편적인 정책만으로는 성장할 수 없다고 강조했다. 그는 "AI 발전을 위해서는 전력·데이터·인력·규제·재정 등 모든 요소가 유기적으로 결합돼야 한다"며 "여야를 가리지 않고 모두가 한 마음이 돼 통합된 전략을 추진할 때만 대한민국이 글로벌 AI 선도국으로 도약할 수 있다"고 강조했다.

2025.02.25 09:46조이환

'AI 3대 강국' 목표 세운 韓, 대규모 투자 시동…조준희 "산업용 LLM에 주목해야"

최근 우리나라 정부가 인공지능(AI) 분야를 국가 전략 기술로 지정하고 집중 지원에 나선 가운데 국내 기업들이 산업용 거대언어모델(LLM) 개발에 적극 나서야 한다는 주장이 나왔다. 23일 업계에 따르면 조준희 한국소프트웨어협회장은 최근 자신의 소셜미디어(SNS) 페이스북 계정을 통해 "AI는 국가적으로 전략물자 수준 이상으로 생각해야 되고, 일종의 '핵무기'와 같다고 봐야 된다"며 "앞으로는 우리를 보호하는 무기로서의 AI를 가질 것이냐, AI 핵우산에 기댈 것이냐의 선택일 것"이라고 강조했다. 그러면서 "산업 보국을 위해서는 기업 수와 고용이 동반해서 늘어야 되는데 그런 면에서 우리가 소홀히 보고 있는 산업용 LLM 시장에 큰 기대감을 가지고 있다"며 "특히 제조 강국으로서의 산업 특화 LLM 개발 부분은 수출 측면에서도 선전 할 수 있다고 생각한다"고 덧붙였다. 조 회장이 이처럼 주장하고 나선 것은 최근 우리나라에서 AI 산업 발전을 위해 정부와 기업이 다각도로 방안을 모색하고 있는 상황에서 방향성을 제시하기 위한 것으로 분석된다. 앞서 정부는 지난 20일 제3차 국가AI위원회 회의를 진행해 '국가대표 정예팀'을 선발하는 한편, 빠른 시간 안에 세계 최고 수준의 LLM을 개발할 수 있도록 데이터와 그래픽처리장치(GPU) 등을 전폭 지원하겠다는 계획을 내놓은 바 있다. 특히 AI 컴퓨팅 인프라 확충을 위해 단기적으로는 내년 상반기까지 1만8천 장 규모의 첨단 GPU를 확충하기로 했다. 1만 장은 국가AI컴퓨팅센터를 중심으로 올해 안에 마련하고 나머지 8천여 장은 슈퍼컴퓨터 6호기 구축을 통해 확보한다. 장기적으로 2030년까지 국가AI컴퓨팅센터 내 국산 AI 반도체 비중을 50%로 끌어올려 저전력·고성능의 국산 AI 반도체 경쟁력을 높인다는 계획이다. 초기에는 엔비디아 등의 GPU를 쓰되 국산 AI 반도체의 성능을 검증해 점차 비율을 늘린다는 방침이다. 범용인공지능(AGI) 구현에 필요한 핵심 원천기술 확보도 추진하고 있다. 약 1조원을 투입할 계획으로, 현재 예비타당성 조사가 진행 중이다. 이에 대해 조 회장은 "국가 AI 역랑 강화 방안들은 어려운 환경에서 시기 적절하고 정교하게 잘 만들어졌다"며 "실행에 만전을 기하면 승산이 있다고 본다"고 말했다. 정부가 이처럼 나선 것은 AI 주도권을 둘러싼 글로벌 시장 경쟁이 갈수록 격화되고 있어서다. 미국은 지난 달 오픈AI, 오라클을 중심으로 AI 데이터센터에 약 730조원을 투자하는 '스타게이트 프로젝트'를 발표했다. 이에 질세라 유럽연합(EU)은 'AI기가팩토리 프로젝트'를 포함해 300조원가량을 투자키로 했다. 프랑스도 AI데이터센터에 약 163조원을 투자할 것이란 계획을 최근 공개했다. 하지만 우리나라는 미국, 중국에 이어 'AI 3대 강국'을 목표로 하고 있지만 '쩐의 전쟁'에선 다소 밀리는 모양새다. 한국은 일단 글로벌 AI 생태계에서 싱가포르·영국·프랑스와 함께 3위권으로 평가 되고 있지만, 고성능 AI 모델을 개발하기에는 국내 인프라가 부족하다는 지적을 받고 있다. 실제 지난해 기준 우리나라가 보유한 엔비디아의 AI 반도체 'H100'은 약 2천 개로, 미국 빅테크 메타의 15만 개, 마이크로소프트(MS)의 15만 개에 비해 상당히 낮은 수치다. 기술격차도 갈수록 커지고 있다. 미국과는 지난해 3월 기준 1.3년에 달했고 유럽과는 1년, 중국과는 0.9년의 차이가 났다. AI 고급 인재의 해외 이탈도 많아지면서 기술 개발에도 상당히 어려움을 겪고 있다. 이에 카카오는 자체 LLM 개발 중심 전략에서 선회해 오픈AI와 손을 잡았다. LLM 개발에 수천억원이 든다는 점에서 부담이 컸기 때문이다. 하지만 업계에선 카카오의 이 같은 전략에 대해 상당한 아쉬움을 드러냈다. 카카오가 파운데이션 AI 모델 개발에 소요되는 대규모 투자 비용을 절감하는 효과가 있겠지만, 자체적인 AI 역량 확보가 어려워져 향후 해외 진출에 어려움을 겪을 수도 있다고 판단해서다. 조 회장은 "국내 국민 메신저를 운영하는 대기업의 미국 LLM기업과의 제휴는 AI가 국가 기간산업이라는 철학이 부재한 보여주기식의 쉬운 접근"이라며 "(이 같은 전략은) 성공하기 어려울 것"이라고 주장했다. 이어 "AI는 LLM, GPU, 고대역폭메모리(HBM), 프로세싱-인-메모리(PIM), 클라우드, 양자 등 대규모 융합 산업으로, 어느 하나도 포기할 수 없는 주요 테크산업인 만큼 협업과 종합적인 접근이 중요하다"며 "올해 (우리나라가 AI기본법과 관련해) 세부 규정과 시행령을 더 정교하게 만들어서 미국 빅테크 기업을 적절히 견제하고 국내 산업을 증진시킬 수 있도록 (모두의) 균형있는 노력이 필요할 것"이라고 덧붙였다.

2025.02.23 15:37장유미

AI기본법 시행 앞서 정부·기업 한자리…글로벌 경쟁력 확보 방안 논의

인공지능(AI)기본법 시행에 앞서 정부와 산업관계자들이 모여 발전방향을 논의하기 위한 토론회가 개최한다. 한국소프트웨어산업협회(KOSA)는 산하 초거대AI추진협의회와 더불어민주당 조인철 의원실과 'AI기본법 현안 논의 토론회'를 개최한다고 20일 밝혔다. 오는 26일 국회 제2소회의실에서 진행하는 이번 토론회는 지난해 12월 26일 의결된 AI기본법의 시행에 앞서 산업계와 정부 관계자들이 한자리에 모여 법안이 국내 AI산업에 미칠 영향과 향후 발전방향을 논의하고자 마련됐다. AI기본법은 4년간의 논의 끝에 의결된 법안이다. 인공지능에 관한 국가 차원의 거버넌스 체계 정립과 AI 산업의 체계적 육성, AI 위험의 사전예방 등을 주요 내용으로 담고 있다. 토론회에서는 한양대학교 이상욱 교수가 '혁신과 안전이 공존하는 AI 기본법'을 주제로 발제를 진행한다. 이어지는 패널토론에서는 AI기본법의 실효성 있는 이행 방안과 산업 발전을 위한 제도적 지원 방안을 심도 있게 논의할 예정이다. 토론에는 과학기술정보통신부 공진호 과장, 랭코드 김민준 대표이사, 로폼 박성재 AI센터장, 네이버 박우철 변호사, KT AI2X Lab 배순민 소장, 국가인공지능위원회 신상렬 국장, 인공지능산업융합사업단(AICA) 오상진 단장, SK텔레콤 이영탁 성장지원실장, 트웰브랩스 정진우 이사가 참여한다. 조준희 협회장은 "이번 토론회를 통해 AI기본법의 실효성 있는 이행 방안과 AI산업 발전을 위한 제도적 지원 방안이 도출될 것으로 기대한다"며, "특히 국내 AI산업의 경쟁력 강화와 글로벌 시장 진출을 위한 실질적인 방안이 논의될 예정"이라고 말했다. 토론회를 주최한 조인철 의원은 "전기나 증기기관 같은 일상 전반에 적용될 범용 기술로 분류되는 AI 기술을 따라잡지 못하면 대한민국은 시대의 흐름에서 도태하게 말 것"이라고 우려하며 "지난해 국회가 AI기반 조성에 집중한 제정법을 마련한 만큼, 여기에 민간 부문의 과감한 도전이 더해져 독자적 AI플랫폼을 구축하고 글로벌 경쟁력을 확보할 수 있도록 더욱 성심껏 국회 차원의 법적‧제도적 뒷받침을 이어가겠다"고 약속했다

2025.02.20 17:16남혁우

"고려아연 상호출자·순환출자 관련 공정거래법 위반 검토"

공정위가 지난달 신고 접수한 고려아연 상호출자·순환출자 회피 탈법행위 관련 내용의 공거래법위반 여부를 검토한다. 또 로봇·인공지능(AI) 등 미래산업 경쟁력과 직결된 반도체 설계와 관련된 시높시스-앤시스 기업결합 건을 전원회의에 상정해 심의한다. 한기정 공정거래위원장은 17일 간담회에서 올해 핵심 프로젝트로 하도급·유통·소비자 분야 주요 과제 이행상황을 설명했다. 한 위원장은 지난달 말 접수된 고려아연의 공정거래법 위반행위 관련 신고사건 관련, 고려아연이 해외 계열사 명의만 이용해 규제를 회피하는 탈법행위를 했다는 신고인 측 주장이 있어 사실관계 확인 등 통상적인 사건처리 절차를 거쳐 공정거래법 위만 여부를 면밀히 검토하기로 했다고 말했다. 지난해 5월 미국 시높시스-앤시스 기업결합과 관련, 한 위원장은 “해외 사업자간 결합이지만 로봇·AI 등 미래산업 경쟁력과 직결된 반도체 설계와 관련돼 국내 반도체 시장에 미치는 영향이 매우 크다”며 “시장에 미치는 경쟁제한 우려를 심층적으로 검토했고 이달 초 안건 상정한 후 전원회의 심의를 앞두고 있다”고 설명했다. 한 위원장은 이어 “시높시스-앤시스 건은 지난해 8월부터 시행된 공정거래법상 '기업결합 자진 시정방안 제출 제도'를 적용한 최초 사례”라며 “시장 정보를 풍부하게 보유한 기업에 먼저 경쟁제한 우려 시정방안을 제출하게 해 시정조치를 부과하는 선진적·효율적 제도가 첫발을 내딛게 됐다”고 말했다. 한 위원장은 또 “중소 하도급업체가 대금을 제때 지급받을 수 있도록 보호장치를 확대하는 종합 개선대책을 추진하고 있다”며 “최근 학계·법조계·사업자단체 추천 전문가로 '하도급대금 지급보장 강화 TF'를 구성했고 25일 1차 회의를 개최한다”고 밝혔다. 한 위원장은 “중소기업의 대금지급 안정성을 강화면서도 원사업자의 불합리한 부담은 해소하는 균형적 방안을 마련하겠다”고 덧붙였다. 한 위원장은 “티메프 사태를 계기로 온라인 중ㄱ대거래 분야 대금 정산기한을 단축하는 대규모 유통업법 개정안이 발의된 후 직매입·특약매입 등 전통적 소매업에서도 행행법상 대금지급 기한이 너무 길다는 의견이 제시됐다”며 “백화점·TV홈쇼핑·쇼핑몰 등 11개 업태 139개 유통브랜드·납품업체를 대상으로 진행중인 서면 실태조사 결과를 분석해 제도 개선 필요성 등을 검토할 계획”이라고 밝혔다. 한 위원장은 또 “플랫폼 사업자·공공기관을 사칭한 온라인 광고대행 계약체결이나 효과가 낮은 키워드광고를 등록한 후 계약을 해지할 때 과도한 위약금을 부과하는 등 불법행위로 자영업자 피해가 큰 상황”이라며 “과학기술정보통신부·경찰·한국인터넷광고재단 등과 민관 합동 광고대행 TF를 신설해 민생 피해구제 방안을 마련 중”이라고 말했다. 공정위는 11일부터 한국인터넷광고재단 홈페이지에 '온라인 광고대행 사기 신고센터'를 개설해 운영 중이다.

2025.02.17 18:41주문정

[기고] 인공지능 시대, 무분별한 중복 규제 지양해야

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 규제의 근간이 될 수 있는 인공지능기본법(AI기본법)이 지난 1월 국회에서 정부로 이송돼 공포됨에 따라 내년부터 본격적인 시행을 앞두고 있다. 이같은 상황에서 프라이버시 분야에서의 AI 규제에 관한 법안도 새롭게 발의됐다. 지난달 31일자 개인정보 보호법 일부개정법률안이 바로 그것이다. 공개된 주요 내용에 따르면 개인정보보호위원회의 심의·의결을 거친 경우 적법하게 수집한 개인정보는 AI 개발을 위해 활용할 수 있게 된다. 이 과정에서 정보주체의 권리 침해가 발생하지 않도록 사전 및 사후적 조치도 마련됐다. 다시 말해 사전적으로 개인정보 처리방침을 통한 투명성 확보 조치를 이행하도록 하고 사후적으로는 개인정보보호위원회의 주기적인 관리 및 점검을 통해 개인정보의 안전성을 확보하겠다는 계획이다. 이는 개인정보보호위원회가 올해 6대 핵심 추진과제 중 하나로 세운 AI 시대 개인정보 규율체계 혁신 과제와 궤를 같이 한다. 이미 현행 개인정보 보호법 제15조 제4항은 당초 수집 목적과 합리적으로 관련된 범위 내에서는 안전성 확보 조치를 취하였는지 여부 등을 고려해 정보주체의 동의 없이도 개인정보를 추가적으로 이용할 수 있도록 규정해 두고 있다. 이에 따라 특정 서비스 제공 목적으로 수집한 개인정보를 AI 서비스 개발에 이용하는 행위는 현재도 충분히 가능하다고 판단된다. 개인정보보호위원회 역시 AI 시대 안전한 개인정보 활용 정책방향을 통해 위와 동일한 입장을 표명한 바 있다. 이번 개정안은 주로 기본 서비스 관련 개인정보를 관련이 없는 기타 서비스 개선이나 신규 서비스 개발을 위해 이용하는 경우에 대비한 것으로 이해된다. 다시 말해 다른 서비스나 신규 서비스의 경우 기존 서비스 개선에 비해 정보주체의 예측가능성이 떨어질 것이므로, 이를 위한 AI 개발에 대해서는 보다 엄격하게 개인정보보호위원회의 심의·의결을 요구하겠다는 취지다. 규제의 강도 측면에서 합리적인 규제라고 생각된다. 다만 세부적인 규제 내용은 추가적인 검토를 통해 완성해 나가야 할 것이다. 내년부터 시행 예정인 AI기본법은 이미 일부 AI에 대해 투명성 확보 의무 및 안전성 확보의무를 부과하고 있다. 이에 따라 개인정보 보호법 개정안을 통해 규율되는 투명성 확보 조치와 안전성 확보 조치 역시 단순한 중복 규제에 그치지 않도록 해야 한다. 이를 위해 제도 시행 전부터 부처 간 협력을 통해 각 규제의 유기적인 정착을 도모해야 한다. 향후에는 프라이버시 분야 외에 다른 부처에서도 다른 법안을 통해 AI에 관한 규제를 연이어 도입할 것으로 예상된다. AI와 같이 광범위한 분야에서 사용될 수 있는 기술에 대해 각 부처별로 관심을 갖고 규제를 도입하려는 시도 자체는 어찌 보면 당연한 것이다. 다만 앞서 본 것처럼 AI가 화두로 떠오른다고 해서 각 부처가 무분별하게 중복 규제를 하는 상황은 반드시 피해야 한다. 규제가 필수적이라 하더라도 사전에 별 다른 논의 없이 부처별 규제들이 우후죽순처럼 도입되기만 한다면 수범자 입장에서는 큰 혼란이 초래될 수밖에 없다. 일례로 광고성 정보 전송과 관련한 정보통신망법에 따른 규제와 개인정보 보호법에 따른 규제 역시 과도한 중복 규제로 여기는 여론이 많았다. 두 규제를 통합하려는 시도는 줄곧 있어 왔지만 아직까지 혼란은 이어져 오고 있다. 그 외에 지난 2020년 데이터3법을 통합하려는 시도에도 불구하고 복잡하게 얽힌 문제로 개인정보 보호법과 신용정보법 간의 통합은 무산되었다. 이같이 처음부터 규제가 여러 갈래로 흩어져 있는 상황에서는 중복 규제가 발생할 것이 우려된다. 다만 나중에 이를 다시 주어 담는 통합작업을 하는 것 역시 너무나 어려운 작업임은 그간의 선례에 비추어 볼 때 자명하다. 그렇다고 과도한 중복 규제를 그대로 두는 것은 사업자들에게 짐을 돌리는 것밖에 되지 않는다. 동시에 규제기관 간에 서로 눈치만 보며 상황을 애매하게 방치하는 것 역시 법치국가에서 허용해서는 안 된다. 어려운 시국 속에서도 AI기본법이 극적으로 국회에서 통과된 만큼 이 법안이 누더기 규제가 되지 않도록 제도 도입 초기부터 각 부처 간 원활한 협의를 통해 유기적인 규제 로드맵을 완성하기를 기대해 본다.

2025.02.14 15:41법무법인 태평양 이준호

'AI 안전성 확보 전략 포럼' 열린다

한국데이터법정책학회는 20일 오후 3시 한국프레스센터에서 'AI 안전성 및 신뢰성 확보를 위한 전략'이라는 주제로 제14회 AI 윤리법제포럼을 개최한다. 이날 포럼에서는 서울여대 정보보호학부 교수, 인공지능윤리정책 포럼 위원장을 지내고 현재 AI안전연구소 초대 소장을 맡고 있는 김명주 소장이 주제 발표를 맡았다. 포럼 회장인 이성엽 교수는 “한국에서도 AI 기본법상 안전성, 신뢰성 확보 규정이 도입됐고, 최근 딥시크 층격으로 인해 AI를 통한 정보보안 위험이 증대되고 있는 상황에서 AI 안전성과 신뢰성 확보를 책임지고 있는 기관의 전략을 듣고 향후 과제를 논의하는 의미 있는 세미나가 될 것이다”고 밝혔다. 한편 AI 윤리법제포럼은 AI 시대의 법제도와 윤리 이슈에 대해 논의하기 위한 전문가 모임으로 정기적으로 생성형 AI의 주요 윤리, 법제, 정책 이슈에 관한 세미나를 개최하고 있다. 1회 포럼에서 ▲생성 AI에서 윤리 이슈를 시작으로 ▲생성형 AI의 기술적 이해 ▲생성형 AI의 저작권 이슈와 과제 ▲생성형 AI의 개인정보의 이슈와 과제 ▲생성형 AI의 경쟁상의 이슈와 과제 ▲주요국의 AI 규제 현황과 시사점 ▲생성형 AI에서 가짜뉴스의 이슈와 과제 ▲생성형 AI에서 시큐리티 이슈와 과제 ▲디지털 통상과 인공지능 ▲생성형 AI 기술, 산업 동향과 시사점 ▲한국의 AI 반도체, 클라우드 전략 ▲AI 규제법의 국내외 동향 분석, 평가와 향후 과제 ▲AI 법제 및 거버넌스 개선방향 등의 주제를 다뤘다.

2025.02.13 14:22박수형

유상임 과기정통부 장관 "올해 내 GPU 1만 5천 개 확보"

정부가 오는 2030년까지 GPU 3만개를 구입하기로 했던 일정을 4년 정도 앞당겨, 2026년 말이나 늦어도 2027년 초까지 모두 확보하기로 했다. 올해에만 1만 5천개를 구입할 계획이다. 유상임 과기정통부 장관은 4일 정부서울청사에서 '25년도 과기정통부 핵심과제 추진상황' 대국민 보고를 위한 브리핑에서 이같이 언급했다. 이날 과기정통부 기자단과의 질의응답은 '딥시크 등 AI' 현안에 집중됐다. 유 장관은 "챗GPT의 진화와 딥시크 충격 이후 2030년가서 GPU 3만 개를 확보해봐야 아무런 의미가 없다"며 "우선 광주 데이터센터 등에서 미리 쓸 수 있도록 일부를 선 구입한뒤 나중에 국가 차원에서 국가AI슈퍼컴퓨터 센터로 모으는 작업을 할 것"이라고 말했다. 유 장관은 또 "국내에서도 딥시크와 유사한 모델을 갖고 있는 기업이 10개 정도 된다. 다만 떨어지는 정확도는 개선하면 될 것"이라며 "올해 내 1만 5천개를 모두 확보할 계획"이라고 덧붙였다. 올해 내 한국과학기술정보연구원은 슈퍼컴퓨터 6호기를 도입하며 GPU 8천800개를 확보할 계획이다. 이에 앞서 진행한 브리핑에서 유 장관은 과기정통부의 올해 사업계획을 밝히며 이달 내 AI컴퓨팅 인프라 발전전략을 공개할 것이라고 언급했다. 또 오는 3월에는 민관합동 양자전략위원회도 출범시킬 계획이다. 과기정통부는 AI사업기반 확충의 핵심인 국가 AI컴퓨팅 센터 구축사업 설명회를 오는 7일 개최한다. 오는 28일까지 사업참여의향서를 제출하는 기업·기관 등에 공모지침서를 제공한다. 이와함께 이달 말에는 ▲AI컴퓨팅 인프라 확충 ▲데이터센터 규제개선 등을 포함하는 'AI컴퓨팅 인프라 발전전략'을 공개할 예정이다. 핵심 전략기술 신속 확보를 위한 집중 지원도 이루어진다. 당장 이날 오후 '1조원 규모의 과학기술혁신펀드' 조성을 위해 전담은행 및 펀드 운용사와 양해각서(MOU) 교환이 진행된다. 과기정통부는 올해 우선 2천500억 원 이상으로 민간펀드를 조성, 12대 국가전략기술 혁신기업과 국가R&D 기술사업화 기업 등에 투자할 계획이다. 양자분야 범부처 역량 결집에도 적극 나설 계획이다. 확정되진 않았지만, 오는 3월 '민관합동 양자전략위원회'를 출범시켜, 양자기술개발과 산업육성을 가속화한다는 복안이다. 또 같은 달 국가전략기술 등 선도형R&D에 대한 투자를 강화하고 게임체인저 분야 최적의 투자전략을 제시하는 2026년도 국가연구개발사업 투자방향도 발표한다. 정부 국제협력R&D 사업을 분석한 뒤 최적의 투자분야와 협력파트너를 모색하는 '글로벌R&D 2.0 전략'도 이달 내 마련한다. 가계통신비 부담 경감 등 통신분야 민생지원에도 나선다. 이달 내 알뜰폰 도매대가 인하를 위한 관련 고시 개정을 행정예고한다. 3월엔 국민의 합리적 통신 요금제 선택을 지원하기 위해 '최적요금제 고지제도' 도입을 위해 전기통신사업법 개정을 추진한다. 지역 소상공인의 성장을 지원하는 지역채널 커머스방송 제도화를 위해 케이블TV와 홈쇼핑 등 이해관계자 협의(2월)와 스미싱 피해 예방을 위해 스미싱 발송을 사전차단하는 엑스레이(X-Ray) 시스템 시범사업을 추진한다. 엑스레이 시스템은 이용자가 문자 중계사/재판매사에 대량문자 발송을 요청하면, 문자 내용에 스미싱URL이 포함돼 있는지 여부를 판단하는 시스템이다. 마지막으로 범부처 기술사업화 생태계 혁신, R&D 시스템 개선을 위해 가칭 '국가R&D 기술사업화 전략'을 오는 3월 내 발표한다. 이외에 이공계 대학원생들을 위한 연구생활 장려금 사업 공모를 2월부터 개시한다. 또 출연연 자율성, 투명·윤리경영을 위한 규정 개정도 이달 내 마무리지을 계획이다. 유상임 장관은 “엄중한 정국상황에서 어려운 민생경제를 지원하고, 경제회복에 기여하기 위해 모두가 무거운 책임감을 갖고 최선을 다하고 있다"며 " 핵심과제들이 국민의 삶과 산업현장에서 체감되도록 꼼꼼하게 점검하고 국민들께 소상히 설명드릴 것”이라고 밝혔다.

2025.02.04 12:37박희범

英, AI로 아동 성적 이미지 생성하면 처벌

영국 정부가 인공지능(AI)으로 아동 성 학대 이미지를 생성하는 행위를 불법으로 규정하기 위한 법안을 발의했다. 3일 BBC 등 외신에 따르면 영국이 전 세계에서 처음으로 AI 성 학대를 법적으로 처벌하기 위한 법적 조치에 나섰다. 해당 법안은 '범죄 및 치안 법안(Crime and Policing Bill)'에 포함된 상태로, 이달 중 국회서 논의될 예정이다. 법 적용 대상은 아동 성 학대 이미지 생성하는 AI 도구 소지자다. 해당 도구로 관련 이미지를 제작하거나 배포, 사용법 안내 행위도 불법이다. 아동 성 학대 콘텐츠 웹사이트를 운영하는 행위도 마찬가지다. 정부는 수사 시 범죄와 관련한 디지털기기 보안 잠금을 임의로 해제할 수 있다. 다수 외신은 온라인 범죄자가 AI로 아동 성 학대 자료를 제작하는 사례가 증가한 가운데 영국 정부가 나선 것으로 분석하고 있다. 인터넷워치재단에 따르면 지난해 관련 이미지 보고 수치가 작년보다 5배 증가한 것으로 나타났다. 그동안 전 세계에서 아동이 노골적인 모습으로 등장하는 콘텐츠 제작·배포가 금지였다. 다만 AI를 통해 해당 콘텐츠를 생성할 때 구체적인 법 적용이 어려웠다. 이에 영국 정부는 AI로 아동 성 착취 콘텐츠를 만든 제작자에게도 명확한 처벌을 내리기 위해 나선 것이다. 예벳 쿠퍼 영국 내무장관은 "온라인뿐 아니라 오프라인에서도 아동 성 학대를 근절하는 것이 사이버 범죄로부터 대중을 강력히 보호할 방법"이라고 말했다.

2025.02.03 10:16김미정

"AI 영향력 키우려 꼼수 부렸나"…오픈AI 투자한 MS, 美·英 규제 당국 압박 거세져

마이크로소프트(MS)와 '챗GPT' 개발사 오픈AI의 파트너십에 대해 미국과 영국 규제당국의 압박이 거세지는 모양새다. 20일 테크크런치, 블룸버그통신 등 주요 외신에 따르면 미국 연방거래위원회(FTC)는 지난 17일 내놓은 보고서에서 MS의 오픈AI에 대한 130억 달러(약 19조원) 규모의 투자를 두고 반독점법 위반을 우려한 것으로 전해졌다. MS의 클라우드 컴퓨팅에서의 지배력이 초기 인공지능(AI) 시장으로 확장할 수 있다고 본 것이다. 클라우드 컴퓨팅 시장 점유율 2위인 MS는 지난 2019년부터 오픈AI와 파트너십을 체결하고 대규모 투자를 단행해 지분 49%를 확보했다. 당초 오픈AI와의 파트너십 영향이 클라우드 사업에 국한될 것이라는 예상과 달리 소프트웨어 라이선스, AI 제품, 사이버 보안 등 MS의 전반적인 사업 영역으로 지배력이 확대됐다는 지적이 나오고 있다. 현재 MS는 오픈AI 파트너십을 통해 연간 10억 달러(약 1조4천억원) 매출을 올리고 있다. 또 AI 분야에서만 연간 30억 달러(약 4조3천억원)의 매출을 기대하고 있다. 이 같은 분위기 속에 FTC는 MS의 오픈AI 투자가 AI 개발사들이 향후 MS에 의해 완전히 인수될 위험을 높인다고 봤다. 앞서 영국 경쟁시장국(CMA)도 MS의 오픈AI 투자뿐 아니라 인플렉션AI, 미스트랄AI 투자에 대한 반독점법 위반 여부를 검토하며 압박 수위를 높인 바 있다. FTC는 아마존과 구글이 AI 스타트업 앤트로픽에 대해 투자하는 것도 반독점법 위반 가능성이 높다고 봤다. 아마존과 구글은 앤트로픽에 대해 각각 80억 달러와 20억 달러를 투자한 바 있다. 업계에선 빅테크들이 이 같은 움직임을 통해 AI 시장을 독점하면서 새로운 후발주자 탄생을 어렵게 만들고 있다고 지적했다. '챗GPT'가 생성형 AI 열풍을 일으킨 이후 2년 동안 주요 AI 스타트업들은 비용이 많이 들고 컴퓨팅 집약적인 기술 개발을 지원받기 위해 빅테크 기업들에 의존해 온 바 있다. 이를 두고 FTC는 빅테크 기업들이 이런 스타트업들에 투자한 자금 중 일부를 자신들의 제품과 서비스에 사용하도록 요구하고 있다고 지적했다. 아울러 이런 파트너십이 소중한 AI 인재를 대기업 중심으로 집중시키고 칩 개발과 모델 훈련, 데이터를 대기업이 독점적으로 확보할 가능성을 높인다고 우려했다. FTC 리나 칸 의장은 성명을 통해 "FTC 보고서는 빅테크 기업들의 파트너십이 어떻게 잠금 효과(lock-in·다른 제품 선택에 제한을 두는 현상)를 만드는 지를 보여준다"며 "스타트업들이 핵심적인 AI 자원을 잃으며 민감한 정보를 노출해 공정한 경쟁을 저해할 수 있는지에 대해서도 조명하고 있다"고 말했다. FTC는 지난해 이들 빅테크 기업의 AI 스타트업에 대한 투자에 대해 조사를 해왔다. 이 조사 결과는 향후 조치에 대한 정보를 제공하는 데 사용될 수 있다. 보고서는 "빅테크 기업 중 한 곳이 AI 스타트업과 거래 과정에서 기밀인 재무 성과 정보에 접근할 수 있었다"며 "또 다른 계약에서는 AI 스타트업의 핵심 자산인 모델 출력 결과에 대형 빅테크 기업이 접근할 수 있도록 허용됐다"고 우려했다. 법무부 반독점부서 부차관보를 역임한 로저 P. 알포드 노트르담 로스쿨 법학 교수는 "빅테크 기업이 소규모 기업 인수를 파트너십, 투자 등으로 반독점 심사를 회피하는 경우가 발생하고 있다"며 "과도한 규제는 혁신을 제한할 수 있지만, 과소 규제는 반경쟁적인 기술 관행의 문을 열어주고 소비자 피해로 나타날 수 있다"고 지적했다.

2025.01.20 09:56장유미

EU, AI법 위반시 최대 '매출 7% 벌금'...기업들 비상

가트너(Gartner)가 발표한 'EU AI법 준비를 위한 1단계: 발견과 목록화' 보고서에 따르면, 2024년 말부터 단계적으로 시행되는 EU AI법이 기업들에게 막대한 재정적 리스크를 안길 것으로 전망된다. EU AI법의 단계별 시행 일정 공개 EU AI법은 2025년 2월부터 단계적으로 시행된다. 첫 단계로 2025년 2월부터 금지된 AI 시스템에 대한 규제가 시작되며, 2025년 8월부터는 범용 AI와 처벌 규정이 적용된다. 2026년 8월에는 대부분의 규정이 시행되고, 최종적으로 2027년 8월에는 Article 6.1과 Annex II에 해당하는 규정이 시행된다. 이러한 단계적 접근은 기업들이 충분한 준비 기간을 가질 수 있도록 설계되었다. AI 위험도별 규제 체계 상세 공개 EU AI법은 AI 시스템을 위험도에 따라 세 가지 범주로 분류한다. '금지된 AI'는 사용자의 자유의지를 침해하거나 '사회적 점수 매기기'에 사용되는 시스템으로, 법 집행 목적 등 극히 제한적인 예외를 제외하고는 전면 금지된다. '고위험 AI'는 인간에게 영향을 미치는 대부분의 AI 기술이 해당되며, 엄격한 요구사항을 준수해야 한다. '저위험 AI'는 AI 기반 추천 시스템이나 스팸 및 바이러스 필터 등이 포함되며, 재고 관리나 문서화 등 비교적 가벼운 요구사항이 적용된다. AI 도입 유형 분류와 대응 전략 가트너는 기업의 AI 도입을 네 가지 유형으로 분류했다. 첫째는 '와일드 AI'로, 직원들이 업무를 위해 공개된 AI 도구를 사용하는 경우다. 둘째는 '임베디드 AI'로, 기업이 사용하는 솔루션에 내장된 AI 기능을 의미한다. 셋째는 '하이브리드 AI'로, 기성 AI 모델과 기업 데이터를 결합한 형태이며, 마지막으로 '인하우스 AI'는 기업이 자체적으로 개발한 AI 시스템을 말한다. EU AI법의 추가 규제 요구사항 EU AI법은 특정 AI 기반 애플리케이션에 대해 위험성 평가, 투명성 의무, EU 전역 데이터베이스 등록을 요구한다. 특히 시스템적 위험을 수반하는 최고 성능의 범용 AI에는 추가적인 의무 요구사항이 적용된다. 기업들은 이러한 요구사항을 준수하기 위해 자사의 AI 시스템을 철저히 점검하고 필요한 조치를 취해야 한다. 기업의 실질적 대응 방안 가트너는 기업의 효과적인 AI 시스템 관리를 위해 구체적인 실행 방안을 제시했다. 우선 기업 아키텍처, 제3자 리스크 관리, 변경 관리, 조달 프로세스를 적절히 수정하여 새로운 AI 기능과 서비스의 도입을 지속적으로 모니터링해야 한다. 완벽한 발견보다는 점진적인 진행이 중요하며, 일반개인정보보호법(GDPR) 준수를 위해 작성된 처리활동기록(RoPA)과 개인정보영향평가(PIA)를 활용하면 발견 및 목록화 과정을 상당히 단축할 수 있다. AI 시스템 카탈로그화를 위한 구체적 행동 지침 기업들은 각 AI 시스템에 대해 상세한 정보를 수집하고 문서화해야 한다. 시스템명, 처리하는 개인정보의 종류(특히 인종, 민족, 정치적 성향, 성별, 성적 지향, 종교적 신념, 노조 가입 여부, 유전자, 생체인식, 건강 데이터 등 민감정보), 처리 목적, 관련 업무 프로세스, 벤더 정보, 개인정보 처리의 법적 근거 등을 포함해야 한다. 가트너는 데이터 중심의 접근을 권장하며, 특히 민감한 개인정보를 처리하는 인사나 마케팅 부서의 AI 시스템을 우선적으로 점검할 것을 조언했다. EU 법률 체계와의 연관성 EU AI법은 기존의 다양한 EU 법률과 연계돼 있다. 기계류 지침, 장난감 안전 지침, 의료기기 규정, 민간항공보안 규정 등 17개 이상의 EU 법률이 AI법과 직접적으로 연관되어 있다. 이러한 기존 EU 법률의 적용을 받는 AI 시스템은 대부분 고위험 AI로 분류될 가능성이 높다. 따라서 기업들은 자사의 AI 시스템이 이러한 법률과 관련이 있는지 세심하게 검토해야 한다. ■ 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다.

2025.01.18 17:28AI 에디터

[AI는 지금] AI 기본법 정비단 출범…업계 "고영향 AI 정의 신중해야"

과학기술정보통신부가 인공지능(AI) 기본법 하위법령 정비단을 출범하며 AI 산업 육성과 신뢰 기반 조성을 본격화한다. 국내 AI 업계는 이번 정비단 출범이 산업 진흥으로 이어지길 기대하는 동시에 고영향 AI의 정의와 평가 기준에 대한 명확성을 요구하고 있다. 과학기술정보통신부는 지난해 12월 국회에서 통과된 AI기본법이 내년 1월부터 차질 없이 시행될 수 있도록 하위법령 정비단을 통해 시행령 초안을 신속히 마련할 계획이라고 15일 밝혔다. AI 기본법은 지난 2020년 처음 국회에 발의된 이후 오랜 논의를 거쳐 제정됐다. 이 법은 유럽연합(EU)의 AI 법안에 이어 세계 두 번째로 제정된 사례로, AI로 인한 위험을 예방하고 기술 발전을 촉진하는 내용을 담고 있다. 이번에 구성된 하위법령 정비단은 AI 기본법의 핵심 쟁점인 고영향 AI와 생성형 AI의 세부 기준을 구체화하며 법안의 실효성을 높이는 것을 목표로 한다. 고영향 AI란 인간 생명, 신체 안전, 기본권에 중대한 영향을 미칠 수 있는 AI 시스템을 뜻한다. 정비를 위해 과기정통부를 비롯해 국가AI위원회 법제도분과, 산업계 초거대 AI추진협의회, 학계, 법조계 전문가 등이 참여한다. 정비단은 워킹그룹 3개 분과로 구성돼 조항별 세부 내용을 구체화한다. 워킹그룹 1은 AI 안전성 확보 의무와 국내대리인 지정을 담당하고 워킹그룹 2는 AI 투명성 확보 의무, 영향평가, 신뢰성 검증과 인증을 다룬다. 워킹그룹 3은 고영향 AI 기준 설정, 사업자 책무, 사실조사를 주요 검토 대상으로 삼는다. 현재 하위법령에는 ▲ AI기본법 시행령 및 시행규칙 ▲ 고영향 인공지능 기준과 예시에 관한 가이드라인 ▲ 고영향 인공지능 사업자 책무 가이드라인 ▲ 인공지능 안전성 확보 의무 고시 ▲ 인공지능 영향평가 가이드라인 ▲ 인공지능 투명성 확보 의무 가이드라인이 포함됐다. 추후 규제 샌드박스, AI 신뢰성 검증, 사실조사 및 분쟁조정 관련 항목도 추가될 가능성이 높다. 송상훈 과학기술정보통신부 정보통신정책실장은 "이번 법 제정은 우리나라가 AI G3 강국으로 도약할 법적 기반을 마련했다는 점에서 큰 의미가 있다"며 "기업의 예측 가능성을 높이고 투자를 촉진하기 위해 하위법령 정비에 속도를 낼 것"이라고 밝혔다. 국내 AI 업계는 하위법령 정비단 출범을 반기는 분위기다. 제도가 부재해 자의적인 법리해석이 이뤄질 가능성이 현저히 줄어들어 기업이 정해진 범주 내에서 자유롭게 활동을 할 수 있게 됐기 때문이다. 한 AI 업계 관계자 X씨는 "기본법 하위 법령들이 정비되면 법제도상 불확실성이 상당 부분 해소되면서 안정적인 산업 발전이 가능해질 것으로 기대한다"며 "다만 실현되지 않은 위험을 예단하거나 AI 활용 분야와 무관하게 서비스 이용자 규모 등 외적 요소들로 규제 범위를 잡는 등 과잉 입법 이슈가 없도록 향후 논의가 이루어지길 바란다"고 밝혔다. 또 업계 일각에서는 고영향 AI의 정의와 평가 기준의 명확성을 가장 중요한 과제로 보고 있다. AI 업계 관계자 Y씨는 고영향 AI 정의의 중요성을 강조하며 "AI 기본법이 다루는 '고영향'이라는 개념은 이를 서비스하는 기업들에 직접적인 영향을 미칠 것"이라며 "정의를 구체화하는 것이 업계에 실질적인 도움이 될 것"이라고 말했다. 또 다른 업계 관계자 Z씨는 미국 캘리포니아의 사례를 들며 고영향 AI의 평가 방식과 과정이 과학적으로 이뤄져야 할 필요성을 강조했다. Z씨는 "캘리포니아 주지사가 지난해 주 AI법인 'SB 1047' 법안에 거부권을 행사한 사례가 대표적"이라며 "당시 주지사는 단순히 모델의 패러미터가 크다는 이유로 AI를 고위험으로 분류하는 것은 비과학적이라는 비판을 제기했다"고 설명했다. 이어 "의료 분야의 AI처럼 매개변수가 작아도 생명과 안전에 영향을 미칠 수 있는 사례가 있다"며 "분야별 특성을 반영한 고영향 AI의 정의와 평가 기준을 마련할 필요가 있다"고 밝혔다.

2025.01.15 12:14조이환

AI기본법 하위법령 정비단 출범···"고영향AI 기준 신중 마련"

과학기술정보통신부(과기정통부)는 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법)' 하위법령 정비단을 본격 출범한다고 15일 밝혔다. AI기본법은 지난 2020년 7월 국회에서 법안이 처음 발의된 이후 4년이 넘는 기간 동안 다양한 의견을 수렴하며 논의된 법안으로, 22대 국회에서 여야 합의를 거쳐 19개 법안을 병합하고 작년 12월 26일 본회의를 통과했다. 이후 올 1월 14일 국무회의 의결을 거쳐 1월 중 공포될 예정으로 2026년 1월부터 시행한다. 법안은 유럽연합(EU)에 이어 세계에서 두 번째로 제정한 법안이다. 인공지능에 관한 국가 차원의 거버넌스 체계를 정립하고, 인공지능 산업을 체계적으로 육성하며, 인공지능으로 인해 발생할 수 있는 위험을 사전에 예방하기 위한 내용으로 구성됐다. 과기정통부는 AI기본법 제정 효과를 민간에서 조속히 체감할 수 있게 위해 하위법령 정비단을 구성, 운영한다. 정비단에는 과기정통부와 산업계‧학계‧법조계 전문가를 비롯해 국가AI위원회 법제도분과도 함께 참여한다. 법제처(미래법제혁신기획단)도 정비단 회의에 참여해 하위법령 제정에 대한 컨설팅을 지원한다. 정비단은 15일 출범 회의를 거쳐 시행령 초안을 신속히 마련할 예정이다. 특히, 법안에 포함한 고영향AI, 생성형AI 등에 대해서는 해외 입법동향, AI 경쟁력 강화라는 정책목표 달성 등을 고려해 그 기준과 적용사례를 구체화해 나갈 것이다. 이를 통해 AI기본법이 기업의 불확실성을 해소하고, 민관의 대규모 투자를 촉진하는 등 우리나라가 AI G3 강국으로 도약할 수 있는 법적 기반이 될 수 있게 할 계획이다. 과기정통부는 우선 정비단 전문가를 중심으로 시행령 초안을 마련한 뒤 관계부처 및 이해관계자 의견수렴을 폭넓게 진행하는 등 긴밀한 소통을 추진할 방침이다. 아울러, 하위법령 마련과 병행해 법에 근거한 주요 가이드라인 및 고시에 대한 별도 태스크포스(TF) 3개(각 10여명의 민간전문가 참여)도 함께 운영할 예정이다. 특히, 고영향 AI 기준과 예시에 관한 가이드라인의 경우 분야별 전문성이 특히 중요하다는 점을 고려, 국가AI위원회를 중심으로 산학연 전문가, 관계부처 등이 참여해 분야별로 초안을 마련하고 이해관계자 의견수렴을 진행한다. 송상훈 과기정통부 정보통신정책실장은 “인공지능을 둘러싼 치열한 글로벌 경쟁 속에서 우리나라가 혁신과 안전을 조화롭게 반영한 AI기본법 제정을 함으로써 AI G3 강국으로 도약할 수 있는 기반을 마련했다"면서 “기업의 예측가능성을 제고하고, 투자를 촉진하기 위해서는 하위법령 제정에 서두를 필요가 있다”고 밝혔다. 이어 “하위법령 정비단 운영과 민간이 체감할 수 있는 각종 산업 지원 시책의 수립을 속도감 있게 추진해 나가는 등 최선의 노력을 기울이겠다”고 말했다.

2025.01.15 12:00방은주

  Prev 1 2 3 4 5 6 7 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 삼성·LG전자 2분기 실적 잠정치 발표…9일 美 상호관세 유예 종료

EU "AI법 유예 없다"…내년까지 전면 시행 방침 유지

붉은 행성이 왜 노란색·보라색이지? [여기는 화성]

LG엔솔, IRA 세액공제 없이 흑자 달성…저점 통과 기대↑

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.