• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'생성 AI 규제'통합검색 결과 입니다. (8건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오픈AI 'o1'로 AGI 시대 성큼…"정부·기업, 개발 투명성 고려 필수"

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개하면서 일반인공지능(AGI) 시대를 향해 한 걸음 더 나아갔다는 평가를 받는다. 이달 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 o1 프리퓨 버전과 미니 버전을 블로그를 통해 공개했다. 이 모델 시리즈는 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제를 해결할 수 있다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. AI 업계가 고도화된 기술을 쏟아내고 있는 만큼 중요하게 부각되는 부분도 생겼다. 바로 AI 규제다. 현재 미국은 캘리포니아 AI 안전법을 통과시켜 개발 투명성과 안전성 부각에 나섰다. 유럽연합(EU)은 물론이고 캐나다와 영국, 일본도 마찬가지다. 이에 발맞춰 국내서도 최소한의 투명성 관련 규제가 필요하다는 의견이 나오고 있다. AGI 시대로 다가갈수록 AI 기반 솔루션과 결과물이 예측 불가하다는 이유에서다. 법무법인 태평양 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 고도화된 AI 시스템이 산업계에 안착하기 위해 필요한 법안에 대해 이야기 나눴다. 생성형 AI와 관련한 딥페이크, 저작권 문제, 근로 환경 등 이슈에 대한 의견도 공유했다. 법무법인 태평양은 AI팀 활동을 올해 초 본격화했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. Q. 지난주 오픈AI가 사람처럼 추론할 수 있는 고급 모델을 내놨다. 산업계가 AI 시스템 고도화를 신속히 진행하고 있다. 이럴수록 AI 규제 필요성이 더 높아지지 않을까. 윤: 그동안 기업이 AI 시스템 고도화를 위한 기술을 꾸준히 내놨다. 앞으로 기존 개발 틀을 벗어나진 않을 것 같다. 다만 고도화된 AI 시스템으로 무엇을 만들지 아무도 예측할 수 없다. 결국 AGI 등 고도화된 AI 시스템이 산업에 안착하려면 최소한 규제는 필요할 것이다. 이중 개발 투명성이 가장 중요하다. 정부가 개발자나 AI를 사용하는 기업에 데이터 사용 방식이나 모델 알고리즘에 대해 질문을 요구할 수 있는 규제가 필요하다. 다만 AI 산업이 어느 정도 성장한 단계에서 해당 규제를 추진해야 할 것이다. Q. 기업이 정부에게 AI 기술을 의무로 공개하는 법 정도로 이해하면 되는 건가. 조금 더 구체적으로 설명해 달라. 윤: AGI는 지금보다 훨씬 더 고도화된 AI 시스템이다. 그동안 전문가들은 AI 모델에서 파생되는 새 기술을 예측할 수 있었다. 반면 고도화된 AI 시스템이 출현하면, 예측할 수 없다. 기술 불확실성이 커진다는 의미다. 정부는 AI의 불확실성과 그로 인한 잠재적 위험을 관리하기 위한 최소한의 조치 정도로만 규제를 설정하면 된다. 개발자나 기업이 AGI로 특정 결정을 내릴 때 그 결정 과정이나 근거를 정부에 설명하거나 공개할 수 있는 체계다. 정부는 향후 이런 법안을 입법에 넣어야 한다. 이보다 더 강력한 규제는 삼가야 한다. 오히려 기술 중립성을 해칠 수 있다. Q. 현재 국내에선 현존 AI 기술로 인한 이슈가 많다. 딥페이크가 대표적이다. 정부가 딥페이크 피해 방지를 위해 여러 법안 제정을 추진 중이다. 충분히 피해를 최소화할 수 있을 것으로 보는가. 강: 방송통신위원회가 제정을 추진 중인 이용자보호법에는 딥페이크 피해 방지를 위해 AI로 생성된 콘텐츠에 AI 생성물 표시를 의무화하는 법 등을 도입할 것으로 보인다. 그러나 표시 의무 규정 법안만으로 문제를 완벽히 해결할 수 없다. 딥페이크 영상물에 AI 생성물 표시 의무를 부과하면, 일차적으로 허위 정보 확산을 방지하고 제작자·유포자에게 책임은 물을 순 있다. 그러나 딥페이크 제작자나 유포자의 거짓 고지 가능성이 있다. 이용자보호법이 문제 해결에 실효성있게 작동하려면 정부는 지금보다 디테일한 집쟁 정책을 운영해야 한다. Q. 최근 미국 캘리포니아주가 AI 안전법 'SB 1047'을 통과시켰다. 거대 AI 모델에 대한 강력한 규제를 담고 있는 법안이다. 일각에선 SB 1047이 책임소재와 범위가 과도하다는 지적이 나오고 있다. 이를 어떻게 평가하는지. 강: 해당 법안에는 AI로 인한 핵심 피해 방지를 위한 안전 평가 관련 내용과 AI 모델 개발자들에 대한 독립적 제3기관에 의한 감사, 보고의무, 학습을 포함한 AI 모델 기능을 중단시키는 전제 중단 기능 구현, 공공 안전 위협에 대한 징벌적 손해배상 등 내용을 담고 있다. AI가 가져올 위험을 통제할 수 있는 장치가 필요하다는 점에 대해서는 공감한다. 다만 이런 강력한 규제는 이미 기술·산업적으로 최정점에 서 있는 국가에서나 효율적일 수 있다고 본다. 오히려 시장에 진입하고자 하는 해외 경쟁업체들에 진입장벽으로 기능할 수도 있다. Q. 해당 법이 최종 승인되면 다른 나라 AI법에도 영향 미칠 전망이다. 국내 정부도 SB 1047과 노선을 같이할 수 있는 법안을 마련할 것으로 보는가. 강: 현재 과학기술정보통신부에서 제정을 추진하고 있는 AI 기본법은 AI 산업 진흥에 관한 법률이다. AI 시스템 규제에 초점을 맞추고 있는 법은 아니다. SB 1047처럼 AI 안전 평가, 제3자에 의한 감사·보고 의무 같은 강력한 규제 사항들이 포함되지 않을 가능성이 있다. 정부가 AI 관련 제도를 마련하는 과정에서 EU나 미국 등의 AI 관련 규제 정책 사례를 참고할 수는 있다. 다만 국내 AI 산업은 아직 성장단계에 있다. 과도한 규제가 가해질 경우 산업 자체가 위축될 수 있다는 점 고려해야 한다. 이후 고도화된 AI 시스템 대비를 위해 개발 투명성 등 적절한 규제를 추가하면 된다. Q. 저작권 이슈도 생성형 AI 산업서 많이 거론되는 주제다. 기업 노력만으로 해결할 수 있는 문제가 아니라는 평가가 이어지고 있다. 윤: 그렇다. 그동안 학습용 데이터를 무료로 이용하는 행위에 관대한 분위기였다. 챗GPT 출현 후 저작권 이슈가 나오고, 지난해 하반기부터 소송이 이어지면서 분위기가 달라졌다. 데이터 활용이 유료로 전환될 필요가 있다는 목소리가 나와서다. 이미 데이터 학습을 AI 모델에 충분히 진행한 업체나 대기업은 이에 동의하는 입장이다. 저작권 이슈는 생성형 AI 산업계와 저작권 관련 업계가 공감대를 형성해야 한다고 본다. 이는 법 마련보다 더 시급한 과제다. 지난해 저작권위원회와 문화체육관광부가 생성형 AI 저작권법 제정에 나선 바 있다. 안타깝게도 결과가 잘 안 나왔다. 당시 양측 공감대가 없었기 때문이라고 본다. 지난해 국회도 저작권법 논의 때 해결 주제를 이야기하긴 했다. 아직 마침표를 찍지 못했다. 정부가 나서서 속도감 있게 생성형 AI 산업계와 저작권 관계자 등으로부터 의견을 충분히 모으는 역할을 해야 할 것 같다. Q. 생성형 AI가 산업에 도입되면 근로 환경도 변할 것이란 전망이 나오고 있다. 기업이 직원을 AI로 대체하는 과정에서 법률적 문제를 겪을 것으로 보인다. 윤: 단정 짓기 어려운 문제다. 국내에 AI와 근로법이 충돌한 사례가 아직 없기도 하다. 다만 기업이 신규 채용을 줄이는 방식을 가장 합리적인 선택으로 볼 것 같다. 이 부분에서도 정부 역할은 필요하다. 기업이 신규 채용을 너무 줄이면 정부가 정책을 통해 관리를 해야 한다. 기업과 근로자 공감대 형성도 도와야 할 것이다. Q. 이슈를 종합해 볼 때 앞으로 AI 윤리 중요성이 높아질 것 같다. 최근 기업들이 사내에 AI 윤리위원회를 설치해 AI 개발·활용에 지켜야 할 수칙을 정하는 추세다. 올바른 방향으로 가고 있다고 보는가. 강: 최근 대기업 중심으로 AI 거버넌스를 추진 중인 걸로 알고 있다. AI를 개발·활용할 때 지켜야 하는 원칙 틀을 만드는 추세다. 이런 원칙은 국내에서 한 10개쯤 나와 있다. 문제는 원칙에 디테일이 부족하다는 점이다. 사실 이런 건 법률가들이 잘할 수 있는 업무다. 현재 법률 지식과 기업 사정에 가장 알맞은 디테일을 만들어야 해서다. 그렇지 않으면 거버넌스를 만들어도 AI 이용·개발에 충분히 적용할 수 없을 것이다. Q. 국내 기업이 AI 윤리위원회 설치를 활성화하려면 무엇이 필요한가. 강: 모든 기업이 AI 윤리위원회 필요성을 알고 있다. 다만 위원회만 만들고 끝나는 게 아니라, 실제 회사 내에서 높은 수준의 중요성을 가져야 한다. 이사회 의장 또는 최고경영자가 이를 정말 중요하게 생각해야 한다. 이들이 위원회를 지지해야 결정권도 가질 수 있어서다.

2024.09.18 13:19김미정

금융권, 망분리 규제 완화…AI 전환 속도 올린다

금융권 망분리 규제가 이르면 올해 말부터 순차적으로 완화됨에 따라 금융 분야에서도 인공지능(AI) 전환이 본격화할 전망이다. 29일 업계에 따르면 금융·테크 기업들은 이번 규제 완화가 생성형 AI와 머신러닝(ML)을 금융 분야에 적극적으로 도입하는 발판이 되길 기대하고 있다. 특히 금융권에서 발생하는 각종 사고와 범죄를 방지하고 직원과 고객의 의사결정을 더욱 효과적으로 지원할 수 있을 것이라고 전망했다. 김병환 금융위원장은 "IT 환경이 생성 AI와 클라우드 컴퓨팅을 중심으로 변화하고 있다"며 "이러한 환경에 적응하기 위해서는 망분리 규칙을 개선해야 한다"고 밝혔다. 특히 업계 전문가들은 이번 조치가 금융권 횡령 문제를 방지하는 데 큰 역할을 할 것으로 예상했다. 이는 현재 금융업계가 심각한 횡령 문제로 어려움을 겪고 있기 때문이다. 금융감독원이 최근 발표한 자료에 따르면 지난 6년 동안 총 1천804억원 규모의 횡령 사건이 발생했고 총 202명의 임직원이 연루된 것으로 나타났다. 망분리 규제가 없는 해외에서는 AI 기반 검수 및 데이터 분석을 통해 이러한 문제를 효율적으로 해결해 왔다. 알고리즘과 머신러닝 기술이 변화하는 사기 패턴에 빠르게 적응하고 고객을 효과적으로 보호할 수 있는 능력을 가졌기 때문이다. 실제로 미국의 AI 전문기관인 AI 엑스퍼트 네트워크에 따르면 JP모건은 이미 매일 약 10조 달러(약 13경2천조원) 규모의 거래를 분석하면서 비정상적인 자금 흐름을 실시간으로 탐지해 수백억 달러 손실을 방지하고 있다. 한 금융업계 관계자는 "현재 AI는 이미 망분리 이전에도 신용평가, 대출 심사, 상품 및 투자 추천 등에서 많은 주목을 받고 있었다"며 "이제 소비자 측면에서의 서비스 제공만이 아니라 자금세탁 및 의심 거래 탐지에도 효과적일 것"이라고 밝혔다. 또 금융권은 이번 망분리 조치가 생성 AI를 실질적인 의사결정 도구로 활용할 기회가 될 수 있다고 주목하고 있다. 이미 AI 챗봇은 주식 투자에서 놀라운 성과를 보이며 금융 분야에서의 성공을 입증했다. 지난해 영국의 금융 비교 웹사이트인 파인더닷컴의 조사에 따르면 펀드매니저와 '챗GPT'의 추천 주식을 비교한 결과, '챗GPT'가 더 나은 수익률을 기록했다. 또 AI는 고객 문의를 신속하게 처리하고 정확한 정보를 제공함으로써 불완전 거래를 해소할 수 있다고 평가 받고 있다. 영국 TSB 뱅크는 이미 고객 맞춤형 은행 경험을 제공하기 위해 AI 챗봇을 도입했다. 이 챗봇은 24시간 동안 실시간으로 서비스를 제공한다. 국내 AI 스타트업들 역시 이러한 변화를 환영하는 분위기다. 그동안 규제로 인해 AI 도입이 어려웠던 상황에서 벗어나 새로운 시장이 열리게 됐기 때문이다. 한 국내 AI 업계 관계자는 "이번 금융권 망분리 규제개선은 단기적 효과보다는 생성형 AI 활성화 방향성을 규제기관이 제시했다는 점에 의미가 있다"며 "온프레미스 환경에서 전환되기에는 시간이 필요하겠지만 업무 내에서 보안과 개인정보의 범주를 구분하며 빠르게 솔루션 도입을 시도하는 기업들이 늘어날 것으로 보인다"고 예측했다. 업계 전반이 망분리의 긍정적 효과에 주목하는 가운데 일부 전문가들은 생성 AI가 기존 금융 업무를 완전히 대체하기보다는 인간의 업무를 증강하는 방향으로 나아가야 한다고 지적했다. 생성 AI가 아직 할루시네이션, 편향 등의 오류로부터 자유롭지 않기 때문이다. 서호진 금융보안원 팀장은 "생성 AI 기술을 챗봇에 적용할 경우 기존보다 다양한 정보를 더 많은 고객에게 제공할 수 있을 것"이라며 "다만 현재 AI는 결과를 신뢰할 수 없는 특성이 있어 중요 의사결정 시 인간의 판단이 반드시 개입돼야 한다"고 강조했다. 이러한 우려를 반영해 금융보안원은 금융권 특화 AI 거버넌스 가이드라인을 발간할 예정이다. 이를 통해 금융회사가 기존 법을 준수하면서도 AI를 통한 이점을 극대화한다는 방침이다. 연내 발간이 예정된 이 가이드라인은 AI가 가진 기술적 한계를 감안하면서 위험관리 체계를 구축하고 AI 전담조직을 구성하는 방안 등에 대한 지침을 제공할 예정이다. 서 팀장은 "AI 활용에서 인간에게 최종적인 결정권을 두는 개념인 휴먼인더루프(Human-in-the-loop)가 개인 재산을 다루는 분야인 금융권에서도 중요하다"며 "금융 회사가 원하는 AI 개발 활용 목표를 달성하게 하겠다"고 강조했다.

2024.08.29 15:43조이환

금융권 망분리 규제 특례 시행…생성형AI 활용 가능해진다

금융위원회가 인터넷 차단(망 분리) 규제를 단계별로 개선해 금융업권의 생성형 인공지능(AI)과 서비스형 소프트웨어(SaaS) 등을 활용할 수 있게 하기로 했다. 13일 오후 김포 KB국민은행 통합IT센터에서 열린 '금융분야 망 분리 개선 로드맵' 행사에서 김병환 금융위원장은 "클라우드·AI 등 급변하는 IT 환경 하에서 일률적인 망 분리 의무화 정책은 우리나라에만 존재하는 대표적인 규제로 국내 금융산업의 글로벌 경쟁력을 저해하는 요인으로 지적받고 있다"며 "망 분리 규제를 일시에 완화하기보다는 충분한 안전 장치를 전제로 단계적인 규제 개선을 추진해 나갈 계획"이라고 말했다. 크게 망 분리 규제는 두 가지 방향으로 바뀔 전망이다. 하나는 즉시 망 분리 규제가 필요한 부분에 대해서는 규제 샌드박스(특례)로, 다른 하나는 '디지털 금융보안법'을 제정해 전반적인 금융업권의 보안에 관해 다루겠다는 것이다. 금융사는 규제 특례를 통해 생성형AI를 쓸 수 있게 된다. 금융사 내부와 AI모델(외부) 간 연결을 위한 망 분리 규제 특례나, 해외 소재 AI를 통한 가명정보 처리를 위한 데이터 특례를 부여해 생성형AI 개발과 적용이 가능해진다는 것이 금융위 측 설명이다. 그러나 해외 소재 AI에 가명처리된 개인 정보를 처리하는 데이터 특례는 개인정보보호법이 걸려 있어 개인정보보호위원회와 논의가 필요하다. 금융위 측은 "예상되는 리스크에 대한 보안대책을 조건으로 부과하고 금융감독원·금융보안원이 신청 기업별 보안 점검·컨설팅을 실시하는 등 충분한 안전장치를 마련할 계획"이라고 설명했다. 사내 업무에만 활용됐던 클라우드 기반 SaaS도 이용 보안 관리, 고객 관리(CRM) 등에 쓸 수 있도록 규제 특례가 부여된다. 향후 규제 특례로 도출된 사례를 통해 금융위는 올해 4분기부터 디지털 금융보안법 마련을 준비한다. 법의 기본은 금융사가 세부 보안 통제를 자율적으로 구성하되, 사고 발생 시 배상 책임을 확대하고 과징금을 부과하는 방향이다. 이밖에 제3자 리스크(3rd-party risk)에 대한 관리를 강화하기 위해 관련 제도 정비를 추진한다는 방침이다. 김병환 위원장은 "그동안 망 분리에 기대어 보안 분야 투자에 소홀함이 있었다면, 지속적으로 확대해 나가는 계기가 되길 바란다"며 "제도 개선 상황을 주시하면서 필요한 보완 조치를 취해나가겠다"고 강조했다.

2024.08.13 14:00손희연

메타, EU서 생성형 AI 무기한 연기..."규제 불확실"

메타가 유럽에서 생성형 인공지능(AI) 시스템 출시를 미루며 유럽의 규제 불확실성을 이유로 들었다. 지난 21일(현지시간) 메나에프엔(MENAFN) 등 외신에 따르면, 메타는 이날 유럽 사용자를 위한 최신 생성형 AI 인터페이스의 무기한 출시 연기를 발표했다. 메타가 밝힌 연기의 주요 사유는 '불분명한 EU 규제체계'다. 메타가 연기한 프로그램은 오픈소스 대형언어모델(LLM) '라마3(Lama3)'을 활용한 멀티모달 프로그램으로, 페이스북·인스타그램·메신저·왓츠앱 등 메타의 플랫폼에서 텍스트·이미지·지도를 통합하고 생성하도록 설계됐다. 메타는 원래 해당 프로그램을 이달 안에 출시할 예정이었지만, 유럽 연합에서 출시를 보류하기로 결정했다. 지난 5월 말, 유럽연합의 27개 회원국은 2026년 발효될 인공지능 규제 법안을 승인했다. 다만 유럽연합이 시행 중인 '개인정보보호규정(GDPR)'이 메타의 출시 연기에 영향을 미쳤다. GDPR은 지난 2018년부터 EU 각 회원국에서 시행중이며 유럽 연합(EU)의 시민의 데이터를 활용하는 경우 GDPR을 준수해야 한다. GDPR의 주요 항목으로는 ▲사용자가 본인의 데이터 처리 관련 사항을 제공 받을 권리 ▲열람 요청 권리 ▲정정·삭제 요청 권리 등이 있다. 메타 관계자는 "AI 언어 모델을 개발하는 데 중요한 인터넷에 게시된 공개 데이터를 사용할 때 유럽의 규제와 충돌할 가능성이 있다"며 "유럽 각국의 GDPR 해석도 어떻게 이뤄질 지 확실하지 않다"고 말했다. 다만 그는 "GDPR과 유사한 규제를 만든 영국에서는 명확한 규제 지침을 받았으며, 이를 통해 영국에서는 이 프로그램을 출시할 수 있다"고 밝혔다.

2024.07.22 09:21정석규

메타, '라마' 차기 버전 유럽에 안 판다…왜?

메타가 인공지능(AI) 모델 '라마(Llama)'의 차기 멀티모달 버전을 유럽연합(EU) 기업들에 팔지 않기로 했다. 유럽 규제환경이 예측 불가능하다는 이유에서다. 미국 뉴스매체 액시오스는 18일 메타가 몇 달 후 출시할 '라마' 멀티모달 버전을 EU 시장에 출시하지 않을 것이라며 이같이 보도했다. 이에 따라 유럽 기업들은 비디오를 비롯한 오디오, 이미지, 텍스트를 모두 이해·처리하는 라마 멀티모달 모델을 사용할 수 없게 된다. 또 비EU 기업들도 이 모델을 사용한 제품과 서비스를 유럽에서 제공할 수 없게 될 가능성이 높다. 다만 텍스트 전용 버전인 '라마 3'는 EU 내에서도 출시 될 예정이다. 메타는 이런 결정을 내린 이유가 EU의 기존 데이터 보호법인 일반데이터보호법(GDPR) 때문이라는 입장이다. 이 기업은 지난 5월 페이스북·인스타그램 게시물을 통해 모델을 훈련할 계획이었다. 당시 유럽 사용자들에게 데이터 수집을 거부할 수 있는 권리인 옵트아웃(opt-out)을 지원했다. 그러나 EU 규제 당국은 6월 데이터 훈련을 중단하라는 명령을 내렸다. 메타가 GDPR에 반하는 행보를 보인다는 이유에서다. 메타 관계자는 "EU와 유사한 법을 가진 영국에서는 이러한 문제를 겪지 않고 있다"며 "영국 시장에는 새로운 모델을 출시할 계획"이라고 밝혔다. 외신은 이번 사건이 미국 빅테크와 유럽 규제 당국 간 갈등이 커지고 있음을 암시한다고 분석했다. 액시오스는 "EU는 개인정보 보호와 독점 금지 문제를 중요하게 보고 있다"며 "이는 기술 기업들과 상반된 입장"이라고 언급했다.

2024.07.18 14:57조이환

공정위·OECD, 생성형 AI 시대 공정경쟁 모색

인공지능(AI)의 발전에 따라 새롭게 부상한 경쟁 이슈를 점검하고, 규제당국의 정책적 역할을 논의하기 위해 공정거래위원회와 경제협력개발기구(OECD)가 한 자리에 모였다. 공정위와 OECD는 27일 서울 명동 포스트타워에서 ▲한기정 공정거래위원장 ▲프레데릭 제니 OECD 경쟁위원회 의장을 위시한 학계·민간 전문가 등이 참석한 가운데 '생성형 AI와 경쟁정책'을 주제로 콘퍼런스를 개최했다. 생성형 AI란 텍스트·이미지·영상 등 다양한 형태의 데이터를 기반으로 인공지능이 분석·학습을 거쳐 새로운 콘텐츠를 생성하는 기술이다. ▲1부에서는 생성형 AI 공급망에서 경쟁정책의 역할을 주제로 ▲2부에서는 AI 모델의 데이터 관련 경쟁 문제와 전략을 주제로 ▲3부에서는 클라우드 컴퓨팅 서비스 및 AI의 경쟁 보장을 주제로 토론이 이뤄졌다. 한기정 공정거래위원장은 개회사를 통해 “AI와 관련한 산업에서 혁신 성장이 지속되면서도 시장 참여자들의 반칙행위를 사전 예방하고 공정하게 경쟁할 수 있는 기반을 조성해야 한다"며 "경쟁정책 방향을 마련하고 경쟁 당국의 역할을 논의하는 이번 콘퍼런스의 의미가 크다"고 말했다. 이어 공정위가 추진 중인 AI 정책보고서를 언급하며 "경쟁·소비자 이슈에 대한 정책보고서가 혁신 기업들의 예측 가능성을 높이고 AI 분야에서 공정한 경쟁 질서가 확립되는 데 도움이 될 것"이라고 기대했다. 프레데릭 제니 OECD 경쟁위원회 의장은 기조연설에서 "디지털 부문의 성장으로 시장 기능과 경쟁 가능성에 대한 새로운 경쟁 우려가 제기되고 있다"면서 "혁신을 촉진하면서도 시장의 공정성을 보장하기 위한 균형 잡힌 규제가 필요하다"고 밝혔다. 공정위는 "콘퍼런스 논의를 참고해 급변하는 생성형 AI 시대에 맞는 경쟁정책 추진 방향을 모색하겠다"고 밝혔다.

2024.05.27 16:22정석규

"생성형 AI 도입, 불확실성 리스크부터 해소돼야"

인공지능(AI)이 세상을 삼키고 있다. 일상생활뿐 아니라 첨단 비즈니스 영역까지 뒤흔들고 있다. 특히 챗GPT를 비롯한 생성형 AI는 다양한 산업 분야의 기본 문법을 바꿔놓으면서 새로운 혁신의 밑거름이 되고 있다. 반면, 기업에서는 AI 도입이 경쟁력 강화를 위한 기회라는 점을 알면서도 불확실성을 포함한 위험 요인 때문에 도입을 주저하고 있는 것도 현실이다. 지디넷코리아는 창간 24주년을 맞아 법무법인 세종의 AI센터와 함께 이런 변화를 진단하는 '젠(Gen)AI 시대' 특별 기획을 마련했다. 이번 기획에서는 기업이 AI 규제에 효과적으로 대응하면서 도입 가능한 AI 거버넌스에 대해 살펴본다. 아울러, 소프트웨어, 통신, 인터넷, 헬스바이오, 유통, 전자, 재계, 자동차, 게임, 블록체인, 금융 등 11개 분야별로 AI가 어떤 변화를 일으키고 있는 지 심층 분석한다. 또 AI 기술 발전과 함께 논의되어야 할 윤리적, 사회적 문제들에 대한 다각적인 논점을 제시해 건강한 AI 생태계 조성에 기여하고자 한다. [편집자주] 최근 생성형 AI가 전 산업 분야를 아우르는 하나의 거대한 트렌드로 자리 잡으면서 AI 플랫폼 구축에 나선 기업들이 점차 늘어나고 있다. 여러 산업 현장에 적용돼 가시적 성과를 내고 있는 AI 기술이 빠르게 확산되고 있지만 정작 AI 부작용을 염려해 사업에 활용하는 데 주저하고 있는 곳도 많은 상태다. 생성형 AI를 전면 도입할 경우 보안, 오작동, 정보 유출 등 여러 문제가 나타날까 우려돼서다. 실제로 한국경영자총협회가 주요 50개 기업의 AI 도입 실태를 조사한 결과, 챗GPT 같은 생성형 AI를 회사 차원에서 사무직군에 도입했다는 응답은 38%로 집계됐다. 10곳 중 4곳만 도입했다는 의미다. AI를 회사 차원에서 도입하지 않은 기업들은 '정보 유출(41.9%)'을 가장 많이 우려했다. 이어 '준비 기간 필요(29%)', '업무 특성상 필요하지 않음(16.1%)' 순으로 높게 나타났다. 현재 AI를 도입하지 않은 기업 중 29%는 향후 AI를 도입할 예정이라고 답한 반면, 71%는 향후에도 도입할 계획이 없다고 답했다. 이 같은 분위기 속에 법조계는 기업들의 AI 리스크 관리와 관련한 새로운 조직을 앞 다퉈 만들고 있다. AI를 업무에 접목할 방법을 연구하는 동시에 AI 발전에 따른 각종 법률적인 문제점에 대해서도 대비하고 있다. 각 그룹에서 차출된 인력으로 '챗GPT 태스크포스(TF)'를 꾸린 법무법인 광장과 국내 최초로 AI팀을 발족한 법무법인 태평양이 대표적이다. 특히 법무법인 세종은 한 발 더 앞서 올해 1월 'AI·데이터 정책센터'를 발족하고 인재 영입에 공을 들였다. 초대 센터장으로 윤종인 전 개인정보보호위원회 위원장을 고문으로 영입했고, 지난해 12월엔 4차산업혁명위원회 위원, 쿠팡 개인정보보호책임자(CPO) 등을 역임한 장준영 파트너변호사(사법연수원 35기)도 합류했다. 현재 세종에서 윤 위원장은 AI 데이터 정책연구소 소장을, 장 변호사는 AI센터장을 맡아 AI·데이터 관련 기업을 대상으로 법률 리스크를 최소화하는 맞춤형 법적·정책적 자문을 제공하고 있다. 장 센터장은 "윤 소장이 맡은 AI 데이터 정책연구소는 AI과 관련한 '싱크탱크' 역할을, AI센터에선 실제 현장에서 고려해야 하는 AI 전 단계 프로세스를 조언해주는 역할을 맡게 됐다"며 "세종 AI센터에선 ▲AI 거버넌스 구축 ▲데이터 매니지먼트 시스템 마련 ▲글로벌 거버넌스 릴레이션십(GR) 등을 중심으로 기업들에게 AI 도입과 관련된 전반적인 관리를 제공해 줄 수 있다는 점이 강점"이라고 설명했다. 다음은 장준영 법무법인 세종 AI센터장과의 일문일답. Q. 법무법인 세종 AI센터의 역할은 무엇인가 A. 생성형 AI가 등장한 후 대부분의 기업들이 의사결정을 하는 것뿐 아니라 전반적인 업무 프로세스에 AI를 도입하려는 움직임이 많아졌다. 기업들이 LLM(거대언어모델)을 기반으로 RAG(검색 증강 기술), 파인튜닝(미세조정) 등을 접목하는 과정에서 자문을 요청하는 경우가 많아 전문적으로 이들을 돕기 위해 업계 최초로 AI센터를 만들게 됐다. 법무법인 세종 AI센터는 변호사뿐 아니라 비(非)변호사들인 AI 전문가들이 대거 합류했다는 점도 특징이다. 하나은행에서 정보보호본부 상무를 맡았던 이주환 고문이 최근 합류한 것이 대표적인 예로, 앞으로 정보보안, AI 전문가들을 외부에서 꾸준히 영입해 경쟁력을 높일 계획이다. 이를 통해 기존 컨설팅 회사에서 맡았던 업무들을 AI 산업과 관련해선 '세종 AI센터'에서 일괄적으로 처리할 수 있게 될 것으로 보인다. 올해는 AI 정책이 정립되는 중요한 해라고 보고 과학기술정보통신부, 방송통신위원회 등에서 자문 활동도 적극 펼칠 계획이다. Q. 세종 AI센터에서 하는 역할 중 'AI 거버넌스 구축'을 가장 강조하고 있다 A. AI가 갖는 가장 강력한 특징은 '불확실성'이다. LLM이 기존에는 판별형이었으나, 생성형 AI 시대에선 추론해주는 컴퓨팅 기술이 적용돼 연산 과정이 예측 불가 수준으로 발전했다. 개발자들이 모를 정도다. 이런 상황에서 기업들이 도입을 주저하는 것은 어찌보면 당연한 일이다. 기업들이 자칫 경쟁력을 잃을 수 있는 상황에서 AI 리스크를 관리하고 안정적으로 서비스를 더 혁신적으로 바꿀 수 있는지가 최대 과제가 됐다. 이에 세종 AI센터는 ▲위험 통제 ▲혁신 이라는 두 가지 핵심 키워드를 가지고 각 기업들이 AI 거버넌스를 제대로 구축하고 있는지 체크하고 있다. Q. '데이터 매니지먼트 시스템' 마련도 세종 AI 센터의 중요한 역할로 꼽았다. 정확히 어떤 업무를 하는 것인지 궁금하다 A. AI와 관련된 데이터를 수치화해 단순 레벨로 알려줄 수 있는 관리 체계가 마련돼야 위험을 제대로 감지할 수 있다고 생각한다. 데이터 수집, 구매, 이용, 결합 과정에서의 위험도를 수시로 체크할 수 있어야 비용 등 문제가 발생됐을 때의 대처 방안을 제대로 판단할 수 있기 때문이다. 그 과정에서 개인정보 침해, 유출 등의 가능성을 지적하는 이들도 있는데 세종 AI센터에선 레드팀, 블루팀, 퍼플팀 등으로 나눠 모의훈련 실시를 통해 실제 사고를 최대한 방지할 수 있도록 지원하고 있다. 또 영리를 추구하는 기업들이 개인정보를 활용해 고객을 유인하기 위해선 AI 기술을 사용하는 것이 필수적이라고 본다. 데이터 관리 체계가 갖춰지면 데이터를 고부가가치로 활용할 수 있는 자산으로 잘 활용할 수 있다. 다만 데이터 관리 체계를 기반으로 한 AI 기술은 개인정보 관리 체계와 같이 갈 수밖에 없는 특성이 있다. 이런 기업들이 개인정보 유출에 대한 근본적 예방책을 잘 마련하고 AI 거버넌스를 제대로 구축할 수 있도록 컴플라이언스 교육에도 적극 나서고 있다. Q. 미국과 유럽에서 AI 규제에 대한 법제화에 속도를 내고 있다. AI 규제법에 대한 세계적인 논의가 활발해지고 있지만 우리나라는 'AI 기본법'도 없는 게 현실이다. 어떤 방향으로 'AI 기본법'이 제정돼야 할 것 같은가 A. 과기부를 중심으로 'AI 기본법' 제정이 추진돼 왔지만 시민단체 등이 법안에 명시된 '우선허용·사후규제' 원칙에 대해 반대를 표명하면서 어려움을 겪고 있다. 그 사이에 EU에선 세계 최초의 'AI 규제법'을 만들었고, 미국에서도 연방 정부 기관들이 AI 부작용 방지를 위한 안전장치를 의무화하는 정책을 발표했다. EU는 기업들을 대상으로 강력한 규제를, 미국은 정부 부처가 중심이 돼 안전성을 강조한다는 점에서 접근 방식이 다르다. EU가 데이터 프라이버시, 온라인 증오 등 다양한 분야에서 글로벌 표준을 만들어 가는 '브뤼셀 효과(The Brussels Effect)'를 AI에서도 이어갈 지 지켜봐야 겠지만, 우리나라는 '하이브리드형 규제'로 방향을 잡는 게 중요할 것 같다. 이용자, 기업, 정부 당국 등 모든 이해관계자들이 다 공감할 수 있는 신뢰성, 안전성을 확보할 수 있을지에 대한 기준이 필요한 상태지만, 위험도에 따라 AI를 평가하는 EU식 규제는 적절한 지 의문이다. 일단 우리나라는 'AI 기본법'이라는 큰 틀이 만들어져야 혁신이냐, 통제냐에 대한 AI 방향을 잡아 갈 수 있을 것 같다. 규제에서 기술중립성 원칙을 존중해야 기술이 발전한다는 점을 다양한 경험을 통해 배웠다. 우리나라도 기술중립성을 AI에 어떻게 반영해야 할 지가 과제인데 국내외 기준들을 참고해 최소한의 신뢰성, 안전성을 고려해야 할 필요가 있다고 본다. Q. 최근 생성형 AI 도입을 고려하는 기업들이 많아지고 있다. 그 과정에서 고려해야 할 법이 있는지 궁금하다. 국내에서 AI 트렌드에 대응을 잘 하고 있는 분야가 있는지도 알려달라 A. 개인정보법과 관련해 개인정보보호위원회가 지난 3월 말 가이드라인을 제시한 것을 참고하면 좋을 것 같다. 당시 개보위는 LLM을 개발‧배포하거나 이를 기반으로 AI 서비스를 제공하는 6개 사업자에 대해 개인정보 보호의 취약점을 보완하도록 개선 권고를 의결한 바 있다. LLM 학습 과정에서 주민등록번호, 신용카드번호 등 개인정보가 포함될 수 있다는 점에서다. 저작권 문제도 고려해야 할 부분이다. 글로벌 LLM 시장에서도 아직 룰(Rule)이 정해지지 않았는데, 학습 행위에 대한 면책 범위를 어디까지 둘 것인가가 과제인 듯 하다. 우리나라에선 AI 학습에 쓰이는 자료에 저작권을 면책해주는 저작권법 개정안이 지난 2021년 발의됐다. 당시에는 이를 반대하는 이들이 없었지만 2022년 말께 생성형 AI가 등장한 후 진화된 모습을 보이자 여론이 뒤바뀌었다. 퍼블리시티권(초상, 성명, 음성과 같이 개개인을 특징짓는 요소를 상업적으로 쓸 수 있는 '인격표지영리권')도 고려 대상이 될 것 같다. AI 흐름에 잘 적응하고 있는 산업군은 지난 2021년 AI 가이드라인을 내놓은 금융권인 것 같다. 국민에게 미치는 파급력이 커 선제적으로 나선 듯 한데, 우리나라 기업들이 참고해 AI 정책을 만들어 나가기 좋은 사례다. 통신사들도 이용자들의 데이터를 처리하는 데 고민하고 있다는 점에서 관련 규제에 잘 대응하고 있다고 보여진다. Q. 생성형 AI 확산으로 근로 환경에도 변화가 생겼다. 기업들이 이와 관련해 고려해야 할 부분이 있다면 A. AI 도입이 기업들의 원가절감에 도움이 될 것으로 보인다. 일부 기업들이 AI의 등장으로 구조조정을 하며 인력을 대체하려는 움직임이 있지만, 우리나라 근로 환경에선 현실적으로 쉽지 않다. 기업들은 인원 감축을 통한 효율화를 추구하기 보다 경제적 효율성을 높이는 데 많이 사용할 수 있을 것이라고 보여진다. 다만 향후 AI 확산에 따라 장기적으로 노무, 근로 환경 이슈가 발생할 여지는 있다. Q. 마지막으로 생성형 AI 적용을 앞둔 기업들에게 어떤 조언을 하고 싶은가 A. 기업들도 생성형 AI의 불확실성을 고려해 이를 정확하고 공정하게 사용할 수 있도록 사전 준비를 철저히 해 나갈 필요가 있다. AI를 적용하기 전에 먼저 신뢰성, 안전성을 높이기 위해 나서는 것이 기업의 당연한 책무라고 생각한다. 부작용을 알면서도 그냥 적용한다는 것은 AI 기술을 검증없이 막무가내로 출시하는 기업들과 다를 바가 없다고 본다. 기업들은 문제가 발생하면 파급력이 큰 데다 비난을 받을 가능성이 높은 만큼 리스크를 최소화하기 위해 다소 보수적으로 접근을 해 나갈 필요도 있어 보인다. 이처럼 기업들이 여러 가지를 신경쓰려면 사실 비용도 만만치 않게 든다는 점도 고려해야 한다. 미국은 사전 규제가 다소 완화돼 있는 반면, 사후 규제가 굉장히 강력하다. 글로벌 빅테크 기업들은 위험을 감수하면서 무모한 서비스를 내놓은 후 대규모 자금으로 규제에 대응할 때도 많지만, 우리나라는 그렇게 하지 못할 때가 많다. 이를 잘 아는 기업들의 정책을 참고하거나, 도움을 받는 것도 필요해 보인다.

2024.04.30 14:30장유미

AI은행원 등 생성형AI 주시하는 금융권…"거버넌스 미리 구축해야"

금융권들이 인공지능(AI)은행원 도입은 물론이고 가상현실(VR) 기기 보급에 맞춘 금융서비스를 고안 중인 가운데, 선제적으로 생성형 AI에 대한 거버넌스를 구축해야 한다는 진단이 나왔다. 11일 딜로이트 아시아태평양규제전략센터는 AI가 사전 정의도니 지침이나 전략에 따라 특정 과업을 수행하도록 설계된 시스템인 반면 생성형AI는 일정 부분의 창의력 등이 가미돼 리스크가 상존하는 만큼 업무 사용 전 규제와 거버넌스를 사전적으로 마련해야 한다고 밝혔다. 생성형AI의 경우 모델이 복잡하고 정보가 독점적이 다보니 불투명성이 지적될 수 있다. 또, 데이터에서 편견 등을 학습할 경우 차별적이거나 오해의 소지가 있는 콘텐츠를 생성할 수 있기 때문에 주의가 필요하다는 지적이다. 딜로이트 센터 측은 "AI 기술을 둘러싼 규제 환경이 계속 진화함에 따라 AI 기술의 채택을 고려하는 금융사는 AI위험을 이해하고 식별 및 관리하기 위한 조치를 취해야한다"고 언급했다. 특히 대부분의 국가서 AI 규제 및 법률은 개발 전이거나 시행 초기 단계다. AI 규제가 마련되면 생성형AI에 대한 규제도 명확해지지만, 기술 발전 속도가 빠르다 보니 규제가 이를 모두 고려하지 못할 수 있어 기업 자체 AI 거버넌스 프레임워크를 구축이 필요하다는 것이다. 금융사들은 생성형AI를 통한 가상 금융서비스 경험 등을 검토하고 있다. 가상공간에서의 생성형AI는 금융사와 VR 등을 통한 금융서비스를 제공할 수 있기 때문이다. 일방향적인 AI와 다르게 서로 소통할 수 있기에 상담 직원 비용 절감, 개인 맞춤형 서비스 제공이 가능하다. 하지만 이런 서비스가 고객 차별적인 발언을 하거나 답변으로 얻은 개인 정보가 유출될 가능성도 상존한다. 딜로이트 측은 "금융사는 금융서비스 취약 고객계층에 영향을 미치는 요인, 예를 들어 학력이나 소득 득을 파악하고 생성형 AI가 의도 또는 의도하지 않은 결과로 인해 생길 수 있는 고객 편향 및 차별을 피해야 한다"며 "생성형AI를 이용하는 금융회사는 고객 데이터의 수집·저장·처리하는 내부 부서와 외부 업체에 대한 데이터 보호 가이드라인을 확립 및 준수 여부에 대한 관리감독을 해야 한다"고 진단했다.

2024.02.11 09:40손희연

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

美, 한국에 상호관세 25%부과…8월 1일부터 적용

GS25 돈키호테 팝업 1200명 운집…"기대 이하" 불만 속출

홈플러스 "실투입금 1조원 이하로 인수 가능"

삼성전자, 반도체 쇼크에 '휘청'…"재고 충당·AI칩 대중 수출 규제 탓"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.