• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'법무법인'통합검색 결과 입니다. (35건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

법무법인 세종, 'IT&SW 전문팀' 발족

법무법인 세종이 국내 로펌 최초로 'IT&SW 전문팀'을 발족하고, 이를 기념하는 첫 IT 분쟁 세미나를 지난 31일 열었다고 밝혔다. IT, SW 산업이 급격하게 확장되며 대규모 공공 민간 SW 개발 사업에서 발생하는 분쟁이 증가하는 가운데 세종은 선제적으로 'IT&SW 전문팀'을 발족해 관련 법률 자문rhk 분쟁 해결에 대응한다는 방침이다. 특히 이 분야의 분쟁은 과업 범위의 증가 및 변경, 개발 과정에서의 지연과 완성도 등에 대한 책임 소재, 계약 해지 기성고 정산 문제 등 특유한 쟁점들을 다수 내포하고 있어 SW 개발 및 IT 시스템 구축에 관한 폭넓은 이해 및 유사 사건 수행 경험을 통해 축적한 전문성이 매우 중요하다. 이에 따라, 세종 IT&SW 전문팀에는 서울대 전자공학과를 졸업하고 특허법원 판사 및 서울고등법원 지적재산권 전문재판부 고법판사를 역임한 윤주탁 변호사(사법연수원 33기)와 김윤희 변호사(연수원 32기), 권이선 변호사(연수원 38기), 주석호 변호사(변시 3회), 최광희 고문(前 KISA 사이버침해대응본부장), 이주환 고문(前 하나은행 정보보호최고책임자) 등 베테랑 전문가로 구성했다. 이번 세미나에서는 IT 및 SW 개발 사업 발주 및 관리에 필요한 법적 지식과 전략을 제공하기 위해 대법원과 하급심의 주요 판례들을 분석해 각 분쟁에서 다투어지는 여러 쟁점들을 다뤘다. 첫번째 세션은 세종의 특허팀을 이끌고 있는 윤주탁 변호사가 'IT, SI 및 SW 개발 관련 분쟁의 쟁점 및 시사점'을 주제로 IT, SW 개발 분쟁의 어려움과 분쟁의 어려움을 극복하기 위한 소송대리인의 역할과 필요한 능력을 제시했다. 두번째 세션의 발표를 맡은 권이선 변호사는 SW 라이선스 분쟁 사례에 대한 설명을 기초로 이에 대한 대응에서 유의할 점을 설명했다. 또 윤주탁 변호사와 주석호 변호사는 특허 저작권 분쟁과 부정경쟁행위 분쟁에 대한 논의를 이어갔다. 오종한 대표변호사는 “이번 IT&SW 전문팀 발족을 통해 IT, SI 및 SW 기업들과 SW 개발 사업 발주 기업들의 잠재적인 법률 분쟁 리스크를 효과적으로 관리하고, 현실화된 리스크에 대한 대응방안을 제공함으로써 기업들이 사업의 초기 단계부터 법적 안정성을 확보할 수 있도록 하겠다”라고 말했다.

2024.11.04 09:50박수형

오픈AI 'o1'로 AGI 시대 성큼…"정부·기업, 개발 투명성 고려 필수"

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개하면서 일반인공지능(AGI) 시대를 향해 한 걸음 더 나아갔다는 평가를 받는다. 이달 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 o1 프리퓨 버전과 미니 버전을 블로그를 통해 공개했다. 이 모델 시리즈는 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제를 해결할 수 있다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. AI 업계가 고도화된 기술을 쏟아내고 있는 만큼 중요하게 부각되는 부분도 생겼다. 바로 AI 규제다. 현재 미국은 캘리포니아 AI 안전법을 통과시켜 개발 투명성과 안전성 부각에 나섰다. 유럽연합(EU)은 물론이고 캐나다와 영국, 일본도 마찬가지다. 이에 발맞춰 국내서도 최소한의 투명성 관련 규제가 필요하다는 의견이 나오고 있다. AGI 시대로 다가갈수록 AI 기반 솔루션과 결과물이 예측 불가하다는 이유에서다. 법무법인 태평양 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 고도화된 AI 시스템이 산업계에 안착하기 위해 필요한 법안에 대해 이야기 나눴다. 생성형 AI와 관련한 딥페이크, 저작권 문제, 근로 환경 등 이슈에 대한 의견도 공유했다. 법무법인 태평양은 AI팀 활동을 올해 초 본격화했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. Q. 지난주 오픈AI가 사람처럼 추론할 수 있는 고급 모델을 내놨다. 산업계가 AI 시스템 고도화를 신속히 진행하고 있다. 이럴수록 AI 규제 필요성이 더 높아지지 않을까. 윤: 그동안 기업이 AI 시스템 고도화를 위한 기술을 꾸준히 내놨다. 앞으로 기존 개발 틀을 벗어나진 않을 것 같다. 다만 고도화된 AI 시스템으로 무엇을 만들지 아무도 예측할 수 없다. 결국 AGI 등 고도화된 AI 시스템이 산업에 안착하려면 최소한 규제는 필요할 것이다. 이중 개발 투명성이 가장 중요하다. 정부가 개발자나 AI를 사용하는 기업에 데이터 사용 방식이나 모델 알고리즘에 대해 질문을 요구할 수 있는 규제가 필요하다. 다만 AI 산업이 어느 정도 성장한 단계에서 해당 규제를 추진해야 할 것이다. Q. 기업이 정부에게 AI 기술을 의무로 공개하는 법 정도로 이해하면 되는 건가. 조금 더 구체적으로 설명해 달라. 윤: AGI는 지금보다 훨씬 더 고도화된 AI 시스템이다. 그동안 전문가들은 AI 모델에서 파생되는 새 기술을 예측할 수 있었다. 반면 고도화된 AI 시스템이 출현하면, 예측할 수 없다. 기술 불확실성이 커진다는 의미다. 정부는 AI의 불확실성과 그로 인한 잠재적 위험을 관리하기 위한 최소한의 조치 정도로만 규제를 설정하면 된다. 개발자나 기업이 AGI로 특정 결정을 내릴 때 그 결정 과정이나 근거를 정부에 설명하거나 공개할 수 있는 체계다. 정부는 향후 이런 법안을 입법에 넣어야 한다. 이보다 더 강력한 규제는 삼가야 한다. 오히려 기술 중립성을 해칠 수 있다. Q. 현재 국내에선 현존 AI 기술로 인한 이슈가 많다. 딥페이크가 대표적이다. 정부가 딥페이크 피해 방지를 위해 여러 법안 제정을 추진 중이다. 충분히 피해를 최소화할 수 있을 것으로 보는가. 강: 방송통신위원회가 제정을 추진 중인 이용자보호법에는 딥페이크 피해 방지를 위해 AI로 생성된 콘텐츠에 AI 생성물 표시를 의무화하는 법 등을 도입할 것으로 보인다. 그러나 표시 의무 규정 법안만으로 문제를 완벽히 해결할 수 없다. 딥페이크 영상물에 AI 생성물 표시 의무를 부과하면, 일차적으로 허위 정보 확산을 방지하고 제작자·유포자에게 책임은 물을 순 있다. 그러나 딥페이크 제작자나 유포자의 거짓 고지 가능성이 있다. 이용자보호법이 문제 해결에 실효성있게 작동하려면 정부는 지금보다 디테일한 집쟁 정책을 운영해야 한다. Q. 최근 미국 캘리포니아주가 AI 안전법 'SB 1047'을 통과시켰다. 거대 AI 모델에 대한 강력한 규제를 담고 있는 법안이다. 일각에선 SB 1047이 책임소재와 범위가 과도하다는 지적이 나오고 있다. 이를 어떻게 평가하는지. 강: 해당 법안에는 AI로 인한 핵심 피해 방지를 위한 안전 평가 관련 내용과 AI 모델 개발자들에 대한 독립적 제3기관에 의한 감사, 보고의무, 학습을 포함한 AI 모델 기능을 중단시키는 전제 중단 기능 구현, 공공 안전 위협에 대한 징벌적 손해배상 등 내용을 담고 있다. AI가 가져올 위험을 통제할 수 있는 장치가 필요하다는 점에 대해서는 공감한다. 다만 이런 강력한 규제는 이미 기술·산업적으로 최정점에 서 있는 국가에서나 효율적일 수 있다고 본다. 오히려 시장에 진입하고자 하는 해외 경쟁업체들에 진입장벽으로 기능할 수도 있다. Q. 해당 법이 최종 승인되면 다른 나라 AI법에도 영향 미칠 전망이다. 국내 정부도 SB 1047과 노선을 같이할 수 있는 법안을 마련할 것으로 보는가. 강: 현재 과학기술정보통신부에서 제정을 추진하고 있는 AI 기본법은 AI 산업 진흥에 관한 법률이다. AI 시스템 규제에 초점을 맞추고 있는 법은 아니다. SB 1047처럼 AI 안전 평가, 제3자에 의한 감사·보고 의무 같은 강력한 규제 사항들이 포함되지 않을 가능성이 있다. 정부가 AI 관련 제도를 마련하는 과정에서 EU나 미국 등의 AI 관련 규제 정책 사례를 참고할 수는 있다. 다만 국내 AI 산업은 아직 성장단계에 있다. 과도한 규제가 가해질 경우 산업 자체가 위축될 수 있다는 점 고려해야 한다. 이후 고도화된 AI 시스템 대비를 위해 개발 투명성 등 적절한 규제를 추가하면 된다. Q. 저작권 이슈도 생성형 AI 산업서 많이 거론되는 주제다. 기업 노력만으로 해결할 수 있는 문제가 아니라는 평가가 이어지고 있다. 윤: 그렇다. 그동안 학습용 데이터를 무료로 이용하는 행위에 관대한 분위기였다. 챗GPT 출현 후 저작권 이슈가 나오고, 지난해 하반기부터 소송이 이어지면서 분위기가 달라졌다. 데이터 활용이 유료로 전환될 필요가 있다는 목소리가 나와서다. 이미 데이터 학습을 AI 모델에 충분히 진행한 업체나 대기업은 이에 동의하는 입장이다. 저작권 이슈는 생성형 AI 산업계와 저작권 관련 업계가 공감대를 형성해야 한다고 본다. 이는 법 마련보다 더 시급한 과제다. 지난해 저작권위원회와 문화체육관광부가 생성형 AI 저작권법 제정에 나선 바 있다. 안타깝게도 결과가 잘 안 나왔다. 당시 양측 공감대가 없었기 때문이라고 본다. 지난해 국회도 저작권법 논의 때 해결 주제를 이야기하긴 했다. 아직 마침표를 찍지 못했다. 정부가 나서서 속도감 있게 생성형 AI 산업계와 저작권 관계자 등으로부터 의견을 충분히 모으는 역할을 해야 할 것 같다. Q. 생성형 AI가 산업에 도입되면 근로 환경도 변할 것이란 전망이 나오고 있다. 기업이 직원을 AI로 대체하는 과정에서 법률적 문제를 겪을 것으로 보인다. 윤: 단정 짓기 어려운 문제다. 국내에 AI와 근로법이 충돌한 사례가 아직 없기도 하다. 다만 기업이 신규 채용을 줄이는 방식을 가장 합리적인 선택으로 볼 것 같다. 이 부분에서도 정부 역할은 필요하다. 기업이 신규 채용을 너무 줄이면 정부가 정책을 통해 관리를 해야 한다. 기업과 근로자 공감대 형성도 도와야 할 것이다. Q. 이슈를 종합해 볼 때 앞으로 AI 윤리 중요성이 높아질 것 같다. 최근 기업들이 사내에 AI 윤리위원회를 설치해 AI 개발·활용에 지켜야 할 수칙을 정하는 추세다. 올바른 방향으로 가고 있다고 보는가. 강: 최근 대기업 중심으로 AI 거버넌스를 추진 중인 걸로 알고 있다. AI를 개발·활용할 때 지켜야 하는 원칙 틀을 만드는 추세다. 이런 원칙은 국내에서 한 10개쯤 나와 있다. 문제는 원칙에 디테일이 부족하다는 점이다. 사실 이런 건 법률가들이 잘할 수 있는 업무다. 현재 법률 지식과 기업 사정에 가장 알맞은 디테일을 만들어야 해서다. 그렇지 않으면 거버넌스를 만들어도 AI 이용·개발에 충분히 적용할 수 없을 것이다. Q. 국내 기업이 AI 윤리위원회 설치를 활성화하려면 무엇이 필요한가. 강: 모든 기업이 AI 윤리위원회 필요성을 알고 있다. 다만 위원회만 만들고 끝나는 게 아니라, 실제 회사 내에서 높은 수준의 중요성을 가져야 한다. 이사회 의장 또는 최고경영자가 이를 정말 중요하게 생각해야 한다. 이들이 위원회를 지지해야 결정권도 가질 수 있어서다.

2024.09.18 13:19김미정

"韓, 무조건 EU·미국 AI법 따르면 안 돼…AI 법률 정의 필요"

"인공지능(AI) 기본법을 효율적으로 구축하려면 유럽연합(EU)과 미국처럼 AI에 대한 법률적 개념부터 정확히 설정해야 합니다. AI 정의부터 법 적용 범위, 규제 강도 등 틀부터 만드는 것이 급선무입니다. 그래야 EU와 미국식 AI법에 휘둘리지 않습니다." 20일 법무법인 세종 장준영 AI센터장 겸 변호사는 한국데이터법정책학회가 한국프레스센터에서 개최한 'AI 규제법의 국내외 동향 분석·평가와 향후 과제' AI 윤리법제포럼에서 이같이 밝혔다. 장준영 변호사는 과학기술정보통신부에서 AI 입법 자문을 수행 중이다. 장 변호사는 현재 정부가 한국형 AI 생태계 구축에 중요한 첫 발을 내딛었다고 강조했다. 다만 법률 차원에서 한국만의 AI 정의, 규율 대상 등이 명확히 이뤄지지 않았다고 지적했다. 장 변호사는 "22대 국회서 발의된 제정안을 살폈다"며 "해당 법안이 AI 기술을 규제하자는 건지, AI 시스템을 규제하자는 건지 혼동스럽다"고 말했다. 장 변호사는 "이미 EU와 미국, 영국 등은 AI법 제정에 필요한 정의를 구체화했다"며 "AI 개념뿐 아니라 데이터 입력부터 작동방식, 생산, 목적성 등 AI에 대한 핵심적인 요소를 명확히 법에 담았다"고 강조했다. 이어 "국내는 AI법에 필요한 명확한 구체성을 설정하지 않아 우려스럽다"고 덧붙였다. 장 변호사는 "국내 정부가 AI에 대한 정확한 법률 정의 없이 무조건 EU와 미국식 AI법을 따르려 한다"고 지적했다. 이어 "EU는 AI 규칙을 가장 먼저 만들었다"며 "다른 국가와 기업들이 자연스럽게 이를 따르게 하기 위한 야심을 갖고 있다"고 주장했다. 또 "EU는 궁극적으로 글로벌 AI 규제 장악을 목표로 둔 상태"라며 "한국은 국가 차원에서 AI에 대한 명확한 정의나 적용 범위가 필수일 것"이라고 덧붙였다. 이 외에도 장 변호사는 AI 규제 수준에 대한 범위, 규제 의무주체와 위범 기반 접근법에 대한 세부사항에도 구체적인 기준이 필요하다고 했다. 장 변호사는 "AI에 대한 법적 개념이나 중대한 위험을 미치는 AI 영역, 영역별 의무 수준에 대한 사회적 합의 도출이 절실"하다며 "이를 토대로 AI 법적 개념을 얼마나 구체적, 세부적으로 정의하는 게 관건"이라고 주장했다. 이날 이성엽 한국데이터법정책학회 겸 고려대 교수는 "이달 1일 EU AI법이 발효되고 현재 22대 국회에는 6개 AI 법안이 발이된 상황"이라며 "국내외 주요 법안 내용을 비교·분석하고 향후 바람직한 입법방안을 살피는 의미 있는 세미나를 개최해 뜻깊다"고 밝혔다.

2024.08.20 18:31김미정

"국내 첫 AI팀 꾸려"…태평양이 내다본 한국 AI법 방향은?

유럽연합(EU)이 생성형 인공지능(AI)법 추진을 본격화하면서 전 세계가 분주하다. 미국을 비롯한 캐나다, 영국, 일본 등 각국 정부는 AI 거버넌스 구축을 위해 연구소를 설립하고 대규모 투자를 하는 등 자국 AI법 마련에 나섰다. 한국도 마찬가지다. 정부가 AI안전연구소를 설립하고, 새로 출범한 22대 국회도 AI법 제정에 속도를 내고 있다. 당장 AI법에 영향 받을 대상은 기업이다. AI 기술이나 솔루션 출시를 위해 개인정보법, 데이터법 등 민감한 AI 규정을 세세하게 지켜야 하기 때문이다. 기업들은 원활한 AI 사업과 해외 시장 진출을 위해 AI법에 높은 관심을 기울일 수밖에 없다. 법무법인 태평양은 이런 상황을 4년 전부터 예측·준비해 왔다. 그동안 태스크포스(TF)형태로 운영됐던 AI팀은 올해 초 활동을 본격화 했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. 태평양 AI팀장 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 태평양 AI전담팀 특장점을 비롯한 인력 구성 등을 소개했다. 미국·EU AI법에 대한 평가와 향후 한국 AI법이 나아가야 할 방향성에 대해 자세히 들어봤다. Q. 태평양이 국내 첫 AI전담팀을 꾸렸다고 들었다. 이에 대한 배경은. 강: AI팀을 구축한 결정적 계기는 2017년 '이루다' 사건 변호 직후다. 국내에서 AI와 개인정보 보호법을 동시에 다룬 첫 사례다. 변호인단은 재판 뒤 6개월 동안 이루다 관계자들과 개인정보 보호법 위반 사항을 수정하고 데이터 정비를 도왔다. 당시 태평양은 AI와 데이터 처리, 개인정보 이슈 자문 수요가 늘 것으로 추측했다. 예상이 맞았다. 현재 기업들은 태평양의 이루다 데이터 정비 사례를 필수 참고하기 때문이다. 이후 금융권 AI 거버넌스 구축을 도왔다. 농협 사례가 대표적이다. 금융권 AI 컴플라이언스 리뷰 업무까지 맡았다. 산업이 생성형 AI를 구축할 때 법률 리스크 판단을 필요로하다 보니 관련 프로젝트가 꾸준히 들어오는 것 같다. Q. 태평양 AI팀 인재를 새로 영입했는지. 강: 외부에서 AI전문변호사를 영입하진 않았다. 내부 변호사들이 팀을 꾸렸다. 역량이 충분했기 때문이다. 태평양에 항공이나 전자 등 공대 출신 변호사가 많다. 일부 전문위원도 데이터 분야 업무를 수십 년 했다. Q. 현재 국내 로펌들이 AI팀을 꾸리기 시작했다. 팀 필수 역량을 무엇으로 보는지. 윤: 해외 AI법 동향을 잘 파악하는 게 관건이다. 국내 기업이 미국이나 유럽 등에 서비스를 원활히 제공할 수 있게 도와줘야 해서다. 한국에 도입될 가능성 높은 해외 AI규제를 먼저 알아야 한다. 국내 로펌이 해외 로펌들과 활발한 소통을 유지해야 하는 이유다. 태평양은 해외 로펌과 지속적인 컨퍼런스 콜을 통해 AI 정보를 꾸준히 교류하고 있다. 이런 네트워킹을 통해 해외 AI법 동향을 빠르게 수집하고, 한국화하는 데 힘쓰고 있다. 미국·유럽 로펌 세 곳과 정보 공유를 가장 자주 한다. Q. EU AI법과 달리 미국식 AI법은 상대적으로 자율적일 것이란 평가가 나오고 있다. 윤: 미국식 AI법도 EU AI법처럼 규제를 조만간 할 것 같다. 차기 정권이 AI법을 아예 자율 규제로 끌고 갈지, 아니면 기업들에게 가이드를 주고 자율적으로 이를 지키도록 할 건지가 관건이다. 향후 미국식 법은 이 둘 중 하나로 갈 것이다. Q. 미국 대선 결과가 미국 AI법 방향성을 결정할까. 윤: 아직 정해진 바 없다. 모두 아는 것처럼 카멀라 해리스 민주당 대통령 후보는 도널드 트럼프 공화당 후보보다 엄격한 AI법 방향성을 제시할 수도 있다. 트럼프 후보는 현재 바이든 행정부가 추진하는 AI 규제조차 빼자고 주장한다. 이에 미국 빅테크도 트럼프 정부 시절이 지금보다 더 좋았다는 분위기다. 해리스 후보가 당선되면 현재 구조를 유지할 것 같고, 트럼프 후보가 대통령이 되면 AI법이 통상무역 형태로 갈 것 같다. Q. 그런 분위기가 한국에 영향 미칠까. 강: 확실한 건 한국이 AI 개발 인프라를 미국서 갖고 올 때 지금보다 높은 비용을 지불할 수 있다. 이 전제에서 국회의원들은 국내 AI 산업 육성과 자립적인 기술 개발 필요성을 주장할 것이다. 특히 네이버 등 국내 대기업들이 엔비디아 AI칩 구매를 원활히 할 수 있도록 지원해야 한다고 목소리를 높일 것이다. 물론 자유 무역 체계에 따라 기술을 거래하는 건 상관없다. 그러나 AI 기술은 다르다. 단순히 통상적 방식으로만 이뤄질 문제가 아니라서다. 정부는 소버린AI 등을 간과하고 단순히 자유무역 체계에 따라 AI 무역 업무를 처리하면 안 된다. AI 기술 출처나 국가적 배경에 따라 복합적 문제가 발생할 수 있기 때문이다. 한국이 해외와 AI 무역할 때 각국 기술적, 정치적 배경을 고려한 기준을 마련해야 한다. Q. 22대 국회가 AI법을 논의하고 있다. 기본법 틀을 어떻게 만드는 것이 좋을까. 윤: 미국·EU AI법을 무조건 참고하는 것보다 한국적 상황에 맞는 AI 산업 진흥법을 갖춰야 한다. 특히 국내에 AI 보안 문제가 늘고 있다. 정부가 이 문제를 해결하지 않으면 AI 산업은 성장하지 못한다. 이를 위한 위원회를 설치하는 등 국내에 맞는 방향성이 필요하다. 물론 규제도 필수다. 지금 만들지 않으면 안 된다. 향후 EU가 자국 규제법을 따르라고 강제할 것이기 때문이다. 일단 규제 체계를 큰 틀로 만드는 게 급선무다. 규제 범위를 어떻게 정할 것인지, 강도를 어느 정도 설정할 것인지 등은 이후 조정하면 된다. 강: 최종적으로 국내 AI법이 어떤 모습일지 아무도 장담할 수 없다. 행정안전부와 과학기술정보통신부가 AI법에 대해 생각하는 것이 다르고 국회 시각도 이와 다르기 때문이다. 행안부는 강한 AI규제법을 주장하지만 과기정통부는 이를 좀 풀어주자는 의견이 지배적이라서다. Q. 이번 국회는 위험한AI와 금지된AI를 어떻게 정할지도 논의 중이다. 이에 대한 입장은. 윤: 이런 규정은 EU AI에서 왔다. 사실상 한국 정서에 맞지 않는 규정 방식이다. 물론 고위험AI는 존재할 수 있다. 관건은 한국 기업이 고위험AI로 만든 서비스를 제공한 적 있느냐는 것이다. 아직 없다. EU는 법을 이론적으로 접근하고 있다. 그래서 이런 법은 국내서 문제 될 수 있다. 실제 인간 생존과 직결되는 건 당연히 고위험AI로 지정돼야 한다. 이론상 고위험AI 논의가 필요하면 진행 가능하다. 그런데 현실에서 이 부분은 더 논의돼야 한다. Q. 현재 EU도 이 부분에 대해 골치 아플 것 같다. 윤: 그렇다. 지금 EU도 고위험AI 기준을 완전히 마련하지 못했다. EU는 제3자 적정성 평가를 통해 AI를 고위험으로 분류할 방침이다. 문제는 아직 평가 기준조차 없다. EU는 2026년 8월부터 고위험AI에 대한 리스크 세부사항을 내놔야 한다. 딱 2년 남았다. 타임라인에 맞춰 완전한 평가 기준을 만들려면 지금 시작해도 빠듯하다. 강: 결국 AI 규제는 분명히 필요하다. 다만 구체적으로 어느 AI 시스템을 얼마나 규제할 것인지에 대한 문제는 다르다. 이런 정도는 국가·사례마다 다를 것 같다. 큰 틀로 규제를 서둘러 마련하고, 세부적으로 지정할 것과 추가 판단할 것을 정해야 한다. Q. EU AI법이 전 세계에 본격적으로 영향 미치면 국내 시장은 어떻게 변할까. 윤: 국내 시장은 두 가지 특징을 보일 것 같다. 우선 EU AI법에 맞춰 유럽형 서비스를 제공하려는 국내 AI 기업이 생길 것이다. 이는 로펌뿐 아니라 다수 전문가가 예측하는 AI 시장 모습이다. 특히 국내 대기업이 AI규제 기준을 주도할 것으로 본다. 다만 한국 AI법만 기준으로 설정하지 않을 것이다.국내 기업들은 정부가 해외 규제를 따를 가능성을 높이 보기 때문이다. 이에 대기업은 미국·EU AI법이 국내에 들어오는 정도, 범위 등을 판단할 것이다. 이를 자문하는 로펌 역할이 더 중요해질 전망이다.

2024.08.19 17:52김미정

내방니방-더에이치황해, '위플라' 법률자문 지원 맞손

주거용부동산 디지털 전환 스타트업 내방니방(대표 남근호)은 법무법인 더에이치황해와 1인 가구 주거 서비스 '위플라'에 대한 법률자문 지원 업무협약(MOU)을 체결했다고 6일 밝혔다. 내방니방은 뉴패러다임인베스트먼트로부터 '2024 아기유니콘 성장 프로그램 1호 투자' 스타트업으로 최종 낙점돼 최근 프리 A 투자를 유치했다. 올해는 부산 대표 기술창업기업인 '브라이트 클럽'으로 선정되기도 했다. 2020년 6월 설립된 내방니방은 주거용 부동산 위탁관리와 운영, 공간 브랜딩 분야에서 전문성을 갖춘 스타트업이다. 내방니방은 1인 주거용 부동산 관련 사업을 인천을 비롯해 부산 등 지방으로도 본격적으로 확장하고 있다. 이번 협약은 내방니방이 운영하는 주거서비스 위플라를 비롯해 건물주와 세입자 등 고객들에게 정확하고 안전한 법률적 테두리 내에서 체계적이고 전문적인 서비스를 제공하기 위해서다. 내방니방이 영위하는 사업 영역 및 그 밖의 법률 문제 일체에 대해 서면, 구두 자문 및 소송을 상호 협력을 통해 해결할 예정이다. 남근호 내방니방 대표는 "내방니방의 1인 주거공간 서비스가 주거용 부동산뿐만 아니라 상업용 부동산으로도 확장하는 데 법무법인 더에이치황해가 든든한 법률적 동반자가 돼줄 것으로 신뢰한다"고 밝혔다.

2024.08.06 18:03백봉삼

[기고] EU AI법 시행과 AI규제 방향

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 2013년작 영화 '그녀(Her)'에서 인공지능(AI) 서비스 사만다가 등장한다. 사만다는 이용자 맞춤형 소프트웨어(SW)인데 인간과 자연스러운 대화를 할 뿐만 아니라 대량 정보를 처리하면서 스스로 학습하고 인간과 교감을 하는 것처럼 보이는 단계까지 진화하는 모습을 보여준다. 이 영화는 AI 서비스가 등장한다면 어떤 모습일지를 풍부한 상상력으로 구현했다. 그 후 10년도 채 지나지 않아 챗GPT가 등장해 현실에서도 인간과 유사한 지능을 구현한 AI인 범용인공지능(AGI) 서비스가 상용화되는 날이 머지않아 올 것이란 기대를 갖게 됐다. 기술발전이 빠르게 진행되면서 AI기술과 그에 기반한 새로운 서비스를 어떻게 규제 영역으로 포섭하는 것이 좋을지에 대한 논의도 활발하게 진행되고 있다. 유럽연합(EU)은 2018년 일반 개인정보 보호법인 GDPR(General Data Protection Act)를 제정했다. 당시 개인정보 규제에 있어 전세계적인 영향력을 발휘함으로써 소위 브뤼셀 효과(Brussel effect)라는 신조어를 낳았다. 이처럼 AI 규제 분야에서도 선도적인 역할을 하고 있다. 그 결과 올해 8월 1일 AI에 관한 전세계 최초의 포괄적인 규제법인 EU AI법이 발효됐다. EU AI법은 부정적 영향을 줄 위험이 높을수록 더 엄격한 규제가 적용되게 구성됐는데 특정 제품이나 분야에서 AI 기술을 활용할 때 발생할 수 있는 위험 정도에 따라 허용할 수 없는 위험, 고위험, 제한된 위험 및 최소한의 위험으로 구분해 차등적으로 규제하고 있다. EU AI법 전문 제1조는 이 법의 목적으로 '인간 중심적이고 신뢰할 수 있는 AI의 활용을 촉진하고, EU내 AI 시스템의 유해한 영향으로부터 민주주의, 법령 및 환경 보호 등 EU 기본권 헌장에 명시된 건강, 안전 및 기본권을 높은 수준으로 보호'하는 것을 포함하고 있다. AI 시스템은 어디까지나 인간을 돕기 위한 것이어야 함을 전제하고 있고 자연히 인간의 기본적 권리를 침해할 가능성이 있는 AI 기술 활용은 금지된다. 이 법에서 명시하고 있는 금지된 AI 서비스로는 행동을 왜곡하고 정보에 입각한 의사결정을 방해해 심각한 피해를 입히는 잠재의식, 조작 또는 기만적 기술을 배포하는 경우, 직장 및 교육 기관에서 개인의 감정을 추론하는 경우, 인종, 종교적 신념, 성적 지향 등과 같은 보호되는 특성에 따라 개인을 분류하는 생체 인식 분류 시스템으로서의 AI 시스템, 인터넷이나 CCTV 영상에서 얼굴 이미지를 비표적 스크래핑해 얼굴 인식 데이터베이스를 생성하거나 확장하는 경우, 개인의 특성·행동과 관련된 데이터로 개별 점수를 매기는 사회적 점수 매기기 등이 있다. 금지되는 것까지는 아니지만 인간의 안전이나 기본권에 고위험을 가져올 수 있는 AI시스템에 대해서도 EU AI법은 상세히 규정하고 있다. 의료, 교육, 선거, 핵심 인프라 등에 활용되는 AI 기술은 고위험 등급으로 분류돼 시장에 출시되기 전 인간이 AI 사용을 반드시 감독해야 하고 위험관리시스템을 갖춰야 한다. 고위험 AI시스템의 요건을 충족하는지 확인되면 위험평가와 관리 의무가 부가된다. 이러한 고위험 AI 시스템에는 의료 기기, 장난감, 기계류 등 EU 제품 안전 규정에 따라 규제되는 제품 또는 해당 제품의 안전 구성 요소인 AI 시스템, 중요 인프라, 금지되지 않는 생체 인식, 생체 인식 분류 시스템 또는 감정 인식 시스템인 AI 시스템, 고용, 근로자 관리 및 자영업에 대한 접근에 사용되는 AI 시스템, 개인의 신용도를 평가해 신용 점수를 설정하는 AI 시스템 및 생명 및 건강 보험의 경우 개인과 관련된 위험 평가 및 가격 책정에 사용되는 AI 시스템 등이 포함된다. EU AI법의 제반 규정들은 인간 중심적 AI를 개발 및 활용해야 한다는 입법 취지를 명확하게 반영하고 있다. 금지된 AI 서비스와 고위험 AI 시스템에 대한 규제를 보면 AI기술 발전에 따라 초래될 수 있는 인간의 자유와 기본적 권리를 침해하는 데이터 활용을 원천적으로 차단하고자 하는 의지가 느껴진다. 이에 대해서는 EU AI법이 과도한 선제적 규제로 AI기술과 시장이 미처 성숙할 시간을 주지 않고 규제해 AI기술의 발전에 제약이 될 것이며, 위반 시 전세계 매출액의 최대 3퍼센트(금지된 AI를 출시할 경우 전세계 매출액의 7퍼센트)에 해당하는 과징금의 부과에 대해서도 너무 큰 부담을 지우는 것이라는 의견도 존재한다. 새로운 기술의 개발 및 활용에 있어 규제를 공백으로 두기 보다는 어느 정도의 규제는 필요할 것이다. 아직 AI에 대한 구체적인 법령이 발효되지 않았지만 오랜 기간 이에 고민을 해온 우리나라는 포괄적 AI규제의 사실상 첫 스타트를 끊은 EU AI법의 내용뿐만 아니라 해당 법 집행에 따른 결과 등을 면밀히 분석함으로써 국민 기본권을 보호할 뿐만 아니라 국제적인 산업경쟁력을 갖출 수 있도록 하기 위한 AI 법제를 구축할 수 있기를 기대해 본다.

2024.08.06 08:18이강혜

[기고] 알고리즘과 AI의 차이점…규제가 중요한 이유

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 알고리즘과 인공지능(AI)은 현대 기술의 중심에 자리잡고 있다. 이 둘은 종종 혼용되거나 유사한 개념으로 이해되기도 하지만 그 본질과 작동 방식, 응용 분야는 다소 다르다. 알고리즘은 특정 작업을 수행하기 위해 설계된 명확한 단계적 절차나 규칙의 집합이다. 이들은 입력 데이터를 받아 처리하고 결과를 도출하는 과정에서 일련의 지침을 따른다. 예를 들어 정렬 알고리즘은 숫자나 문자의 리스트를 특정 순서로 정렬하는데 사용된다. 알고리즘은 수학적 논리와 명확한 지침을 바탕으로 작동하며 예측 가능하고 재현 가능한 결과를 제공한다. 반면 AI는 기계가 인간의 지능적 행동을 모방할 수 있도록 하는 기술의 집합이다. AI는 머신 러닝, 딥 러닝 등 다양한 기술을 포함하며 이러한 기술들은 데이터를 통해 학습하고 패턴을 인식하며 예측을 수행할 수 있다. AI 시스템은 스스로 데이터를 분석하고 경험을 통해 성능을 향상시키며 복잡한 문제를 해결할 수 있다. 이는 알고리즘과 달리 더 큰 유연성과 자율성을 제공하지만, 그 결과는 항상 예측 가능하거나 명확하지 않을 수 있다. 알고리즘과 AI는 많은 공통점을 가지지만 규제의 필요성이 있어서 중요한 차이점이 존재한다. 알고리즘은 명확한 규칙에 따라 작동하므로 이에 대한 규제가 상대적으로 간단하다. 즉 알고리즘의 코드와 로직을 분석함으로써 그 작동 방식을 이해하고 문제가 발생할 경우 이를 수정할 수 있을 것이다. 하지만 AI는 그 복잡성과 자율성 때문에 규제가 더 어렵다. AI 시스템은 수많은 데이터를 기반으로 학습하고 그 작동 원리는 불투명한 경우가 많다. 이로 인해 AI의 결정에 어떤 편향이나 오류가 발생할 수 있는지 이해하고 검증하기는 매우 어려울 것이다. 이에 따라 AI에 대한 규제는 신중하게 접근해야 한다. AI의 정의가 아직 명확하지 않고 그 응용 분야도 빠르게 변화하고 있기 때문에 성급한 규제는 기술 발전을 저해하거나 의도치 않은 결과를 초래할 수 있다. 예컨대 지나치게 엄격한 규제는 AI 연구 및 개발의 속도를 늦출 수 있다. 이는 글로벌 경쟁력에 부정적인 영향을 미칠 수 있다. 반면 규제가 너무 느슨하면 AI의 오남용이나 윤리적 문제를 방지할 수 없을 것이다. AI 규제의 복잡성은 그 기술적 특성뿐만 아니라 사회적, 윤리적 측면에서도 나타난다. AI는 개인 정보 보호, 데이터 보안, 윤리적 결정 등 다양한 문제를 포함하고 있으며 이는 단순한 기술적 규제로 해결할 수 없는 경우가 많다. 자율 주행 차량 내 AI의 경우 도로 안전과 관련된 복잡한 윤리적 결정을 내릴 수 있어야 한다. 이러한 상황에서 AI의 행동을 규제하는 것은 기술적 문제뿐만 아니라 사회적 합의와 윤리적 기준을 필요로 한다. 이에 AI 규제는 단계적이고 포괄적인 접근이 필요하다. 먼저 AI 시스템의 투명성을 높이는 것이 중요하다. 이는 AI가 어떤 방식으로 작동하는지, 어떤 데이터에 기반해 학습했는지를 명확히 밝히는 것을 의미한다. AI의 결과에 대한 책임도 명확히 해야 한다. 이는 AI 시스템의 오작동이나 잘못된 결정에 대해 누가 책임을 질 것인지를 규명하는 과정이다. 마지막으로 AI의 사회적, 윤리적 영향을 평가하고 이에 대한 기준을 마련해야 한다. 이는 AI가 사회에 미치는 긍정적, 부정적 영향을 균형 있게 고려하는 것을 의미한다. 알고리즘은 이미 규제되고 있으며 이는 그 명확한 정의와 예측 가능한 특성 덕분이다. 반면 AI는 그 정의와 응용이 아직 명확하지 않고, 복잡성과 자율성으로 인해 규제가 더 어려운 상황이다. 이에 따라 AI 규제는 신중하게 접근해야 한다. 또 기술적, 사회적, 윤리적 측면을 모두 고려하는 포괄적인 접근도 필요하다. 이는 AI가 사회에 긍정적인 영향을 미치면서도 그 위험을 최소화할 수 있는 길을 마련할 것이다.

2024.07.19 17:20법무법인 태평양 정상훈

[기고] 인공지능 규제, 어디로 가야 하나

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 2주 마다 다뤄보고자 한다. 미국 콜롬비아 로스쿨의 아누 브래드포드 교수는 그의 저서 '디지털 엠파이어'에서 디지털 시대에 있어 미국의 시장 주도적 규제 모델, 중국의 국가 주도적 규제 모델, 유럽의 시민(권리) 주도적 규제모델이 있다고 소개했다. 또 이 세 가지 규제 모델이 전 세계적으로 경쟁을 하고 있다고 설명했다. 미국의 규제 모델은 성장하는 시장(참여자)이 룰셋팅을 주로 하는 규제 모델을 의미하고, 중국의 규제 모델은 국가가 시장 성장을 주도하면서 그에 따른 룰을 셋팅하는 규제 모델을 의미한다. 마지막으로 유럽의 규제 모델은 시민 권리의 위협에 따라 룰을 우선적으로 셋팅하는 규제 모델을 의미한다. 이러한 규제 모델의 경쟁은 인공지능(AI)에 대한 규제 모델에도 동일하게 작용하고 있는 것으로 보인다. EU는 인공지능에 관한 포괄적인 규율 체계인 소위 EU인공지능법을 가장 먼저 입법화하기 위한 노력을 했고, 이러한 노력은 사실상 마무리 단계에 접어들고 있다. 이와 달리 미국은 인공지능에 관한 규제 체계를 바로 도입하기 보다는 행정명령을 통해 인공지능에 대한 현재 상황을 체크하고, 어떤 규제 체계를 도입할지에 대한 보고서 등을 작성하는 것에 초점을 두고 있다. 이러한 차이는 단순히 인공지능에 대한 규제 도입 단계의 차이만을 의미하는 것이 아니라 인공지능 서비스를 주도하고 있는 미국 기업들의 현 상황까지를 고려한 규제 체계를 도입할 필요가 있는지에 대한 입장 차이도 포함하고 있다. 결과적으로는 인공지능 규제 체계 도입에 대한 근원적인 시각 차이를 반영한 것으로 판단된다. 구체적인 내용을 살펴보면 EU 인공지능법은 잠재적인 위험 및 영향 수준에 따라 인공지능 시스템을 금지된 인공지능 시스템(Prohibited AI systems), 고위험 인공지능 시스템(High-risk AI systems), 최소 위험 인공지능 시스템 (Minimal Risk AI systems), 범용 AI (General purpose AI, GPAI) 모델로 분류하고, 각 분류 체계에 따라 각기 다른 의무를 부과하고 있다. 특히 EU 인공지능법은 이 시스템들 중 고위험 인공지능 시스템에 관해 규제 초점을 맞추고 있다. 이러한 EU 인공지능법은 앞서 설명한 것처럼 시민 권리에 대한 위험도 평가를 기반으로 인공지능에 대한 규제체계를 구성해 매우 촘촘한 규제 체계를 형성하고 있다. 그러나 이에 비해 미국 행정명령은 인공지능에 대한 8가지 정책 원칙을 밝힌 이후 미국 상무부 등 각 행정부처에게 생성형 인공지능을 위한 위험관리 기본체계에 관한 가이드라인 및 모범사례 등을 작성해야 한다. 또 이중 용도 파운데이션 모델의 경우 인공지능 레드티밍시험을 수행할 수 있는 가이드라인 등 작성하도록 요구하고 있다. 여기에 이러한 행정명령에 따라 미국 상무부와 NIST는 생성형 인공지능에 대한 위험관리 기본체계에 대한 초안을 작성해 의견을 수렴하는 등의 절차를 거쳤다. 이 같은 유럽과 미국의 규제 방식의 차이에서 우리는 어떤 선택을 할 것인지 여전히 문제된다. 즉 미국과 같이 현재 시장 상황에 대한 검토를 시작해 시장 상황에 근거한 규제 체계를 도입할지, 아니면 유럽과 같이 인공지능에 관한 예측된 위험으로부터 시민의 권리를 보호하기 위한 규제 체계를 도입할지에 대한 검토가 필요하다. 현재 22대 국회에서 발의된 인공지능 관련 법안들은 두 가지 규제 방식 중 유럽식 규제 체계를 반영하면서 한국의 현실을 고려해 인공지능 서비스 진흥을 위한 정책들을 포함하고 있는 법률안들로 보인다. 그러나 과연 한국에서 고위험 인공지능 시스템에 대한 규제를 지금 도입할 필요가 있는지에 대해선 여전히 의문이 있다. 아직까지 인공지능 서비스가 본격화되지 않은 지금의 시점에 인공지능에 대한 규제 체계를 먼저 도입하는 경우 서비스 활성화에 부정적인 영향을 줄 수 있다는 고민 때문이다. 일례로 2023년 엔비디아 H100 칩 구매량에 대한 통계에서 한국 기업은 10대 구매 기업에 어느 한 곳도 포함돼 있지 않다. 물론 GPU 구매량이 특정 기업의 인공지능 서비스 수준의 척도는 될 수 없겠지만, GPU 구매량은 인공지능 서비스에 대한 투자 정도를 보여주는 지표는 될 수 있다고 생각된다. 아직까지 한국의 기업들이 인공지능 서비스에 대한 투자 또는 서비스 제공 수준이 글로벌 수준에 미치지 못한다는 점을 고려해 한국에서 인공지능에 대한 규제체계 속도를 어떻게 할 것인지에 대한 고민이 필요한 시점이다.

2024.06.21 12:44법무법인 태평양 윤주호

[기고] 신뢰할 수 있는 인공지능과 설명요구권

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 2주 마다 다뤄보고자 한다. 사람의 개입없이 기계에 의해 무언가 결과를 얻어내는 것은 우리의 일상 생활에서 오랫동안 있어온 일이다. 작게는 사거리의 신호등이 점멸할 때 중요하신 분이 지나가는 아주 특별한 경우를 제외하고는 사람이 신호등 안에 숨어서 기기를 작동시키지 않음을 우리는 다 알고 있다. 백화점 멤버십의 등급이 결정될 때도 백화점에서 사용한 카드 사용 금액과 달리 백화점이 고려하는 요소들에 따라서 나의 등급이 정해진다. 해외에서 휴가를 보내기 위해 공항에서 출국 심사를 받을 때도 미리 신원을 등록해 뒀다면 출입국 사무소 직원이 여권을 보는 것이 아니라 컴퓨터가 나의 정맥과 여권만으로 출국 가능 여부를 심사한다. 빅데이터에 대한 분석 기술이 고도화되고 머신러닝 기법과 같은 인공지능(AI) 기술도 이와 함께 발전하면서 인공지능 기술을 도입한 결과물의 이용에 대해선 좀 더 복잡한 문제가 발생하고 있다. 인공지능 기술에서 발생하는 문제점으로 환각(hallucination), 공정성(fairness)이나 편향성(bias) 등이 지적되고 이를 해결하기 위한 많은 연구가 이루어지고 있다. 또 다른 인공지능 기술의 특징 중의 하나는 그 알고리즘을 설명하거나 이해하는 것이 점점 더 어렵게 됐다는 점이다. 인공지능의 알고리즘을 블랙박스(black box)에 비유하는 이유도 인공지능이 내놓은 결론이 왜 그렇게 나왔는지를 설명하기 어려운 경우가 많기 때문이다. 전통적인 인공지능 학습모델로 불리워지는 선형회귀(linear regression)나 의사결정 나무(decision tree)의 경우에도 간단한 모델의 경우에는 결과와 이유의 인과관계를 설명할 수 있다. 하지만 모델이 커지고 복잡해지면서 어떤 요소들이 어떻게 내놓은 답에 영향을 미치게 되는지를 정확하게 설명하기는 어려운 경우가 많다. 무언가 판단이 있었을 때 그 이유를 설명할 수 있어야 한다는 논리는 인공지능 시대에 새롭게 대두된 것은 아니다. 예컨대 우리나라 약관 규제법에서도 사업자가 미리 정해둔 약관을 계약에 포함시키기 위해서는 이 중 중요한 내용에 대해 설명할 것을 요구하고 있다. 또 설명을 충분히 하지 않았으면 그 내용을 계약으로 주장할 수 없다고 정하고 있다. 인공지능과 유사한 복잡한 알고리즘이 오래 전부터 작동해 온 신용평가모델의 경우 미국에선 이미 1970년대부터 대출신청자의 요구에 따라 평가모델에 대해서 설명하도록 규제해 오기도 했다. 개인정보보호법은 인공지능이 개인정보를 처리해 개인에 영향을 미치는 의사결정을 할 경우의 위험성을 인지하고 2023년 법 개정을 통해 자동화된 의사결정에 대한 거부 내지 설명을 요구할 수 있는 권리를 도입했다. 이 규정은 이미 올해 3월 15일부터 시행되고 있다. 이는 개인정보의 처리를 포함해 인공지능에 따라 개인정보를 처리를 포함한 결정이 이루어지고, 이러한 결정으로 인해 나의 권리와 의무에 중대한 영향을 받을 경우에 그 결정을 거부하거나 또는 이와 같은 결정이 내려진 것과 관련한 설명을 요구할 수 있도록 한 것이다. 예컨대 자동화된 시스템에 의해 육아수당의 지급이 취소된 경우 그 지급 취소 결정에 대해 거절하고 인적개입을 요구하거나 또는 왜 취소됐는지 설명을 요구할 수 있다. 공공기관이 국민에게 뭔가 불이익한 처리를 하는 경우에 대해선 자동화된 의사결정이 아니라고 하더라도 일반적으로도 설명을 요구할 수 있었다. 그러나 민간의 경우에는 그러한 설명을 할 의무가 없었기에 이 설명요구권은 새롭게 도입된 제도라 할 수 있다. 공공 부문에서도 이 법의 도입을 통해 개인정보 처리의 관점에서 설명을 해야 하는 사항들이 구체화되었다는 점에서 큰 의미가 있다. 이제는 뭔가 신청자 또는 이용자에게 불이익한 결론이 내려졌다고 하더라도 단지 시스템에 의해서 자동으로 결정됐다거나, 사람의 편향된 판단없이 기계가 공정하게 결정했다는 설명만으로는 부족하게 됐다. 좀 더 구체적으로 법에서 정하고 있는 사항을 설명해야 하는 의무가 사업자에게 발생하게 된 것이다. 우리나라 국민이라면 모두 다 공감하고 있고 공통의 가치를 삼고 있는 민주주의, 국민의 자유와 기본권의 보호, 약자에 대한 배려와 실질적 평등과 같은 핵심의 가치를 인공지능의 설계에서부터 반영해야 한다. 이는 전 세계적으로 강조돼 온 '신뢰할 수 있는 인공지능(trustworthy AI)'의 근간이 된다. 자동화된 의사결정에 대한 설명요구권 역시 인공지능 기술과 산업의 발전을 도모하면서도 동시에 정보주체의 권리에 대해 충분한 보호를 하기 위한 사회적 안전장치다. 새롭게 도입된 제도인 만큼 섬세하면서도 유연한 법 적용을 기대해 본다.

2024.06.07 17:28법무법인 태평양 강태욱

티오더·법무법인 미션, 'K-푸드 익스프레스' 행사 성료

테이블오더 기업 티오더와 법무법인 미션이 'K-푸드 익스프레스' 행사를 성황리에 마무리 했다고 16일 밝혔다. K-푸드 익스프레스 행사는 지난 7일 서울 여의도 파크원 티오더 본사에서 글로벌 진출을 준비하는 F&B 기업 담당자들 약 60명이 참석한 가운데 진행됐다. 이 행사는 해외에 진출해 있는 국내 F&B 기업의 해외 진출 성공 사례와 실무 경험을 공유하고 앞으로 해외에 K-푸드를 알리고자 하는 F&B 대표들의 네트워킹을 형성하고 공유하는 자리로 마련됐다. 이날 행사는 기업 및 법무법인 주제별 발표와 해외에 진출한 기업들의 패널 토크, 네트워킹 세션 순으로 이어졌다. 발표에는 티오더 해외전략팀 홍석호 해외전략 담당자, 법무법인 미션 김성훈 대표변호사, 신세계푸드 베러푸즈 김용우 최고재무책임자가, 패널토크에는 윙잇 임승진 대표, 윤 해운대 갈비(해운대 암소갈비집) 윤주성 대표 등이 참여했다. 'K-푸드 미국 진출을 위한 디지털 솔루션 전략'이라는 주제로 발표를 진행한 티오더 홍석호 담당자는 캐나다 법인 설립을 통해 얻은 북미 현지화 전략을 자세히 소개했다. 홍 담당자는 "미국인들이 커스텀 메뉴와 알레르기 방지를 위해 자세한 재료 성분 표기를 선호한다는 걸 파악해 티오더 태블릿 메뉴판 안에 알레르기 표시 기능, 맵기 표기 기능 등을 넣게 됐다"면서 "미국 외식업에서 가장 화두가 되고 있는 인건비 측면에서도 티오더를 도입하게 되면 최소 직원 1명의 인건비를 절감할 수 있음과 동시에 빠른 회전율로 매출도 함께 증가해 현지에서 반응이 대단하다"고 설명했다. 기존 티오더는 미국 법인 없이 국내 본사 등에서 미국 시장을 담당하고 있었으나, 꾸준한 미국 수요에 맞춰 올해 안으로 미국 법인을 설립하고 사업을 본격화할 예정이다. 티오더는 현재 미국, 캐나다, 호주, 일본, 홍콩, 싱가포르 등에 진출해 있으며 2030년까지 30개국 이상에 티오더 설치를 목표로 하고 있다. 이어 두 번째 발표를 진행한 법무법인 미션의 김성훈 대표 변호사는 'K-푸드 미국 진출을 위한 법적 준비, 어떻게 해야하나?'라는 주제로 나라별, 도시별로 법인 설립 시 유의사항 등을 자세히 설명했다. 특히 김 변호사는 "미국에 법인 설립 시 각 주법에서 규정하는 법에 따라 프랜차이즈 기업에 친화적이거나 비친화적인 주가 존재하므로 사전에 연방법과 주법을 꼼꼼히 살펴봐야 한다"면서 "해외 현지 인프라를 구비한 F&B 회사와의 협업과 공동사업을 통한 '조인트 벤처(JV)' 형식의 시장 진출 모델도 추천한다"고 미국 진출을 고려하는 기업에 실질적인 제안을 남겼다. 권성택 티오더 대표는 "티오더는 특별한 해외 홍보 없이 티오더를 해외에 설치하려는 고객의 수요에 부응해 글로벌 시장에 진출하게 된 기업"이라면서 "티오더 뿐만 아니라 해외에 진출한 기업들의 다양한 사례를 공유하면서 유의미한 네트워킹을 형성하고 해외에서도 성공적으로 사업을 확장해 나가길 바란다"고 말했다. 법무법인 미션 김성훈 대표 변호사는 "이번 행사는 해외 법인 설립 등 글로벌 진출을 시도하려는 기업들에게 실질적인 도움을 드리는 장이 되길 바라는 마음으로 주최하게 됐다"며 "K-푸드와 국내 기업들이 세계로 뻗어 나가는 시점에서 현지 F&B 회사와의 네트워킹, 전략적 협력과 JV 구조 등을 바탕으로 성공적인 해외 진출을 할 수 있도록 논의하면서 행사를 성황리에 마무리 할 수 있었다"고 밝혔다.

2024.05.16 10:32백봉삼

법무법인 원, 기업인 위한 '유럽연합 AI법' 세미나 개최

기업이 반드시 알아야 할 '유럽연합(EU) 인공지능(AI)법' 핵심을 설명하는 행사가 열린다. 법무법인 원과 모두의연구소는 이달 17일 모두의연구소 강남 캠퍼스에서 'EU AI법과 기업 대응'을 주제로 세미나를 개최한다고 15일 밝혔다. 이번 세미나는 AI 활용 분야를 4단계 위험 등급으로 정의한 EU의 새로운 AI 규제 내용에 대한 기업 이해도를 높이기 위해 마련됐다. 딥페이크, 저작권, 개인정보 문제 등 AI 기술 악용으로 인한 기업의 법적 리스크를 확인하고 점검 및 대응 계획 수립을 목표로 뒀다. 세미나는 법무법인 원 AI대응팀 오정익 변호사 발표로 시작한다. 법무법인 원 김윤명 전문위원, 그리고 인이지 장윤석 사업총괄이사의 발표가 이어진다. 이어지는 토론에서는 법무법인 원 AI대응팀장 이유정 변호사 사회로 자유 토론이 진행된다. 세미나 참가 신청은 법무법인 원 홈페이지를 통해 가능하다. 법무법인 원 AI대응팀은 2020년 출범 후 AI 기술 활용 기업들이 부딪치는 다양한 법률 이슈 및 보안 문제에 대한 법률 자문을 제공하고 있다. 행사를 함께 개최하는 모두의연구소는 다양한 AI 기업, 기관, 단체 교육을 진행하고 있다. 법무법인 원 AI대응팀장 이유정 변호사는 "EU 의회가 AI법을 통과시킨 이후 글로벌 기업 대응에 나서고 있다"며 "법 적용 시점은 약 2년간의 유예 기간이 있지만 EU AI법은 포괄적인 규제를 규정하는 기본법인만큼 향후 경영 전략과 방향성을 검토를 위해서라도 면밀하게 검토하고 대응할 필요가 있다"고 강조했다. 이어 "법무법인 원 AI대응팀은 기업을 위한 AI 규제 대응, 컴플라이언스 자문, AI 윤리 교육 등 다각도의 법률 서비스를 제공할 계획이다"고 덧붙였다.

2024.04.15 10:56김미정

"법률 상담도 AI가?"...법조계, 인공지능 도입 본격 '시동'

올해 인공지능(AI)을 활용한 다양한 소프트웨어(SW)가 본격 부상하는 가운데 법조계도 AI 도입 채비를 서두르고 있다. 변론 영역에 AI를 활용한 법률상담 서비스가 나오는가 하면 대법원도 재판업무 보조를 위한 AI 정보화계획(ISP) 마련에 착수했다. 19일 업계에 따르면 법무법인 대륙아주는 오는 20일 'AI 대륙아주 서비스' 설명회를 개최키로 했다. AI 대륙아주란 생성형AI를 기반으로 법률상담 서비스를 제공하는 시스템이다. 모바일과 PC에서도 모두 가능한 데다 시공간의 제약을 받지 않고 법률상담을 받을 수 있다는 이점이 있다. 특히 과거 AI를 활용한 리걸테크 산업은 지속 존재해왔지만 대형 법무법인이 법률 상담 서비스에 AI를 도입한 것은 이번이 처음이다. 대륙아주는 이미 다년간 축적한 법률 데이터를 기초로 넥서스 AI와 AI 서비스를 공동 개발했다. 다만 아직 기초적 형태로 완전한 법률 신뢰성을 갖기는 어려운 상황이다. 법조 삼륜에서 가장 큰 위치를 차지하는 대법원 역시 AI 도입을 서두르고 있다. 대법원은 '재판업무 지원을 위한 AI모델 개발 ISP' 사업을 조달청 나라장터에 공고했다. 재판지연이 법조계의 해묵은 문제로 지적되면서 재판 업무를 보조할 AI 사업을 본격 진행하는 것이다. 특히 법원에 AI가 도입된다면 유사 판례 검색을 비롯해 재판에 기초가 되는 ▲요건사실 ▲주장사실 ▲항변사실 등 기초적인 데이터를 취합하는 데 수월성을 제공할 전망이다. 형사부 판사의 경우 한 달에 1천 건 가까운 재판을 담당하게 되는데 이처럼 판결의 기초적인 업무를 AI가 해결해준다면 재판 지연 문제도 다소간 해결될 것이란 기대도 들어있다. 검찰 역시 진술과 수사정보를 요약하고 서류 초안을 작성하는 'AI 수사관' 도입을 검토 중인 상황이다. 문제점도 존재한다. 법률상담이 그렇듯 판결의 보조적인 업무를 담당할 뿐 실제 사실 관계를 규정하는 데 숱하게 많은 변수를 AI가 계산할 수는 없기 때문에 도입에 신중해야 한다는 의견도 일부 존재한다. 특히 법원은 판결문을 아주 제한적으로 공개하고 있어 AI 도입을 위한 행정 개선도 필수적이라는 의견이다. 현재 리걸테크를 기반으로한 글로벌 법률 AI 시장은 지난 2021년 7천억원 규모에서 오는 2032년까지 약 8조4천억원 규모까지 성장할 전망이다. 지난해 6월 톰슨로이터는 미국 리걸테크 기업 케이스텍스트를 약 8천600억원에 전격 인수하기도 했다.

2024.03.19 16:49이한얼

한국 AI기본법, 총선 후 재논의…"개발자도 의견 내야"

국회에 계류 중인 '인공지능(AI) 기본법' 논의가 재활성화할 전망이다. 이에 업계 관계자들은 효과적인 법 논의에 개발자도 포함하는 등 다양한 소통이 이뤄져야 한다고 주장했다. 중소·스타트업 지원 등 구체적인 논의까지 추진해야 한다고 입을 모았다. 정부 관계자는 총선 이후 AI 기본법에 대한 회의를 재시작할 예정이라고 최근 본지에 귀띔했다. 국내 AI법은 2021년 7월 더불어민주당 정필모 의원, 국민의힘 윤두현 의원 등이 제출한 7개 법안을 통합한 안건이다. 이 법은 지난해 2월 과학기술정보방송통신위원회 법안2소위까지 통과했지만, 여전히 상임위 전체회의에 계류 중이다. 법안2소위 통과 직후 시민단체가 AI법 핵심인 '우선허용·사후규제' 원칙을 강력히 반대했기 때문이다. 당시 AI주무부처인 과학기술정보통신부는 법안 통과를 위해 시민단체를 설득했으나 긍정적인 성과를 얻지 못했다. 이에 과기정통부는 우선허용·사후규제 원칙 등을 포함해 법안을 수정하기 시작했다. 수정본은 완성한 상태며 4월 10일 총선 후 논의된다. 정확한 논의 날짜는 미정이다. 정부 관계자는 "정부는 시민단체와 기업 의견을 골고루 넣는 방향으로 법을 수정했다"며 "단지 기술만 생각하는 것이 아닌 AI의 사회적 파장, 윤리적 이슈까지 고려해 수정본을 마련했다"며 "이 과정에 윤리학자와 사회학자도 해당 과정에 참여했다"고 설명했다. "기술자도 법안 논의 참여해야…구체성 필요" 업계 관계자들은 국내 AI법 논의가 규제와 지원이라는 모순된 양면을 균형 있게 맞춰야 한다고 입을 모았다. 균형 유지를 위해 개발자의 논의 참여, 법 구체화 필요성 등을 주장했다. 서울교육대 김봉제 윤리교육과 교수 겸 AI 가치판단 디자인 센터장은 "AI 기술자도 법안 논의에 적극 나서야 한다"고 강조했다. 김봉제 교수는 "한두번에 그치는 기술 자문이나 의견 제시와 같은 일시적 참여를 말하는 것이 아니다"며 "개발자의 법안 논의 참여는 지속적이어야 한다"고 말했다. 김봉제 센터장은 "현재 AI 기술 변화 속도는 상당히 빠르다"며 "기술자가 법안 논의에 참여함으로써 기술 변화를 지속적으로 알려줄 것"이라고 설명했다. 그는 "이는 법안이 산업 발전에 방해되지 않는 최소한의 조치다"고 덧붙였다. 김 교수는 AI법 논의에 중소·스타트업을 제외해선 안 된다고 강조했다. 일반적으로 AI법이 적용되면, 기업은 개인정보 보호, 사이버 보안, 인권, 윤리적 영향 등 기술 준법 여부 확인을 위한 고려를 종합적으로 해야 한다. 그는 "이러한 성능 평가에는 상당한 비용이 든다"며 "일반적으로 대기업은 이 비용을 감당할 수 있지만, 중소·스타트업은 버거울 수 있다"고 했다. 김봉제 교수는 "정부는 AI법 평가에 드는 비용을 중소·스타트업에 지원하는 등 구체적인 대안 논의도 필요하다"고 했다. 법무법인 원 오정익 변호사도 법 구체성에 집중해야 한다고 강조했다. 오정익 변호사는 "예를 들어, 주요 인프라 관련 AI 시스템 중 어느 범위를 고위험 AI에 넣어야 하는지, 개발사가 어느 기준에 맞춰 품질관리시스템을 갖춰야 하는지 등을 논의 과정에서 명확히 제시해야 한다"고 강조했다. 서울고등법원 강민구 전 부장판사는 정부가 법을 만들더라도 미국식 산업 진흥 기조를 소홀히 해선 안 된다고 했다. 강 전 부장판사는 "AI 기술은 아직 한창 성장해야 할 시기"라며 "정부가 서둘러서 엄격한 유럽식 규제에 치우치는 우를 범해선 안 된다"고 덧붙였다.

2024.03.18 14:11김미정

EU 의회 통과한 AI 법안…"강제성 짙고 디테일 없어" 비판

인공지능(AI) 법안이 유럽연합(EU) 의회를 통과한 가운데 법 실효성에 대한 지적이 이어지고 있다. 법적인 강제성이 너무 짙고, 이로 인해 AI 생태계 동력이 상실될 수 있을 거라는 우려다. 반면 AI법은 지속적으로 개선될 것이므로 일단 지켜보자는 의견도 나오고 있다. EU 의회가 13일 프랑스 스트라스부르에서 열린 본회의에서 AI법 최종안을 찬성 523표로 가결했다고 CNBC를 비롯한 외신들이 일제히 보도했다. 이날 표결에서 반대는 46표, 기권 49표가 나왔다. 최종안은 AI 활용 분야를 네 단계의 위험 등급으로 나눠 차등 규제하는 내용을 담고 있다. 고위험 등급으로 분류되는 의료, 교육을 비롯한 공공 서비스나 선거, 자율주행 등에서 AI 기술을 사용할 경우, 사람이 반드시 감독하고 위험관리시스템을 구축해야 한다는 내용을 담았다. 그동안 핵심 쟁점으로 알려진 얼굴인식 기술 사용도 엄격하게 제한하기로 했다. 생성형 AI 조항도 새로 추가했다. 금지 규정을 위반할 경우 최대 3천500만 유로(약 500억원) 혹은 세계 매출 7%에 해당하는 벌금을 내야 한다. AI법이 최종 확정된 것은 아니다. 오는 5월 유럽의회 마지막 확인 과정과 유럽이사회 인준 과정을 거쳐야 한다. 이후 각 회원국에 효력을 발휘하기까지는 최대 2년 걸릴 것으로 예상된다. AI 감시 기관 설립…생성형 AI 조항도 추가 최종안 내용에 따르면, EU 국가들은 올해 자체적으로 AI 사무소를 설립한다. 사무소 관계자들은 범용 AI 시스템에 대한 법 진행과 감독을 담당한다. 이들은 AI를 개발하는 기업에 정보를 요청하고 해당 시스템이 법망 안에서 작동하는 것을 확인할 수 있는 권한을 갖는다. 시민들이 억울하게 규칙 위반자가 됐을 경우, 해당 기관에 이의를 제기할 수도 있다. 법무법인 원 오정익 AI대응팀 변호사는 "EU 집행위는 올해 1월 사무소 설립을 결정하고 2월 이에 필요한 내부 절차를 진행 중인 것으로 알고 있다"고 밝혔다. 오정익 변호사는 "이 사무소가 해당 법 진행의 주도적인 역할을 할 것으로 본다"고 말했다. 법안 최종안에는 생성형 AI 조항도 추가됐다. 생성형 AI 모델 개발자는 시스템 학습에 사용된 온라인 텍스트, 사진, 동영상, 기타 데이터에 대한 자세한 요약 정보를 모두 공개해야 한다. 이와 동시에 EU 저작권법도 준수해야 한다. 개발사는 생성형 AI가 만든 이미지와 비디오, 오디오, 딥페이크 콘텐츠 등에 인위적으로 제작됐다는 표시를 별도로 해야 한다. 자율주행차 같은 고위험 기술을 사용하는 기업들도 데이터를 공개해야만 한다. 이와 함께 안전 강화를 위해 엄격한 테스트를 거치도록 했다. 2021년 AI법 구축을 시작하던 당시 생성형 AI에 대한 조항은 없었다. 당시 AI가 매우 제한된 범위 내에서 활용됐기 때문이다. 2022년 오픈AI의 챗GPT 출시 후, EU 정책 입안자들이 생성형 AI 조항 필요성을 느낀 셈이다. "공개 의무화 지나쳐…가이드라인 명확해야" AI법이 다소 지나치다는 지적도 나왔다. 다수 AI 기업은 법 강제성이 너무 짙다는 입장이다. 또 AI 문제 발생에 대한 법적 책임 등 세부 항목이 부족하다는 점도 지적했다. 김동환 포티투마루 대표는 AI법이 고위험과 저위험을 나누는 건 좋지만 기업에게 의무성을 지나치게 부여했다는 점을 꼽았다. 김동환 대표는 AI 개발사의 학습 데이터 공개 의무 조항을 예시로 들었다. 그는 "기업이 어떤 종류의 데이터를 AI 모델에 넣는지, 어떻게 데이터를 다루는지 공개하는 건 과하다"며 "마치 영업 비밀을 만천하에 공개하는 것과 같은 이치"라고 말했다. 일반적으로 개발사는 AI 모델에 데이터를 필터링 없이 넣지 않는다. 각 기업 기술력과 노하우로 데이터를 가공·정제한다. 이 과정은 모델 성능을 좌우할 수 있을 정도로 중요하다. 김 대표는 "기업들은 학습 데이터 공개로 자사 기술을 침해 당할 수 있다"고 설명했다. 그는 AI 제품 문제 발생 시 법적 책임에 대한 조항도 부족하다고 했다. 김동환 대표는 "기업이 AI법을 다 지켜서 AI 제품을 개발해도 문제가 발생할 수 있다"며 "이때 누가, 어떻게 책임을 질 것인지에 대한 명확한 조항이 없다"고 지적했다. 그는 "이대로는 기업이 법도 지키고 책임까지 다 질 수 있을 것"이라고 덧붙였다. AI법이 빅테크뿐 아니라 스타트업에도 영향을 미칠 것이라는 의견도 내놨다. 김 대표는 "스타트업이 개발뿐 아니라 AI법까지 디테일하게 지키기엔 여력이 부족할 수 있다"며 "스타트업 생태계를 망가뜨릴 수 있을 것"이라고 전망했다. 오정익 변호사도 AI법에 명확한 기준이 정해지지 않은 점을 지적했다. 오 변호사는 "예를 들어, 주요 인프라 관련 AI 시스템 중 어느 범위를 고위험 AI에 넣는 것으로 볼 것인지에 대한 명확한 기준이 없다"고 지적했다. 그는 "우선 법적인 기준이 명확히 정해져야 혼선이 없을 것으로 보인다"며 "이에 관해 추가적인 지침이나 가이드라인 등이 나올 것으로 본다"고 설명했다. 미국 "EU, 기업 경쟁력 제한" 비판…국내 관계자 "한국, 미국·유럽 전략 융합" 미국 전문가들도 AI법에 대한 우려하고 있다. 법이 기업 경쟁력과 투자 생태계를 제한할 것이라는 이유에서다. 유럽 싱크탱크 연구소 카네기 랄루카의 세르나토니 연구원은 "유럽 내 AI 기업은 미국, 중국 빅테크들로부터 투자금과 기술 주권을 빼앗길 수 있다"며 "AI 리더십에 대한 EU의 야망은 상당한 장애물에 봉착할 것"이라고 CNBC를 통해 지적했다. 미국 로펌 하보틀 앤 루이스의 엠마 라이트 변호사는 "AI는 빠르게 변화하는 기술"이라며 "2년 후 AI법은 구시대적인 법안으로 전락할 수 있다"고 했다. 국내 법률 관계자도 정부가 AI법을 급히 따를 필요 없다는 입장이다. 강민구 서울고등법원 전 부장판사는 "EU권 국가는 미국과 비교할 수 없을 정도로 뒤처진 AI 기술 수준을 갖고 있다"며 "이런 상황에서 여러 가지 기본권 보호, 데이터 주권, 개인정보 보호 등을 앞세우는 규정을 만들어 낸 셈"이라고 설명했다. 강 전 부장판사는 "한국은 EU의 AI 규제 입법 추세를 검토하더라도 AI 산업 진흥에 중점을 두는 미국 방식을 따라가는 투 트랙 전략을 짜야 한다"며 "유럽식 규제에 맞춰 입법을 추진하는 우를 범해선 안 된다"고 강조했다. 모든 EU 회원국이 AI법을 긍정적으로 보는 것도 아니다. 최근 프랑스와 독일 정부는 생성형 AI 규제 방안에 우려를 표명한 바 있다. 해당 법안이 프랑스의 미스트랄AI와 독일의 알레프 알파와 같은 유럽 스타트업에 오히려 피해를 줄 것이라는 이유에서다. 현재 두 기업은 미국 빅테크들로부터 투자받으며 유럽 내에서 주목받고 있다. 유럽 시민단체도 AI법 조항을 지적했다. 기업유럽관측소(CEO) 등 시민단체는 "현재 생성형 AI 기업은 규제를 면제받은 것과 다름없다"며 "몇가지 투명성 의무만 준수하면 되는 정도"라고 지적했다. 이들은 생성형 AI 기업들이 현 AI법망을 피해 더 광범위한 작업을 수행할 수 있을 것으로 봤다. AI 관련 법안을 주도적으로 발의한 의원 중 한명인 드라고스 투도라쉬 의원은 "이번 AI법은 여정의 끝이 아니라 새로운 거버넌스 모델을 위한 출발점이다"며 "AI법이 현실화하는데 정치적 에너지를 집중해야 한다"고 밝혔다.

2024.03.14 16:41김미정

"생성형 AI, 법률 핵심 업무에 서툴러…AI 산업 키우는 정책 우선 필요"

"생성형 인공지능(AI)이 법조계에 스며들면 편리한 점은 분명히 있습니다. 다만 증거 가치와 사실 관계를 판단하는 업무를 사람보다 잘 하진 못합니다. 이에 필요한 학습데이터 확보도 어렵습니다. 이를 극복하려면 AI 결과물에 대한 신뢰성 평가가 필요합니다. AI 기술 정확성에 대한 평가나 설명을 할 수 있는 추가 기술을 적용해야 합니다." 법무법인 원 오정익 변호사는 26일 지디넷코리아와의 인터뷰에서 "생성형 AI가 법률 분야에 완전히 스며들기 위해선 넘어야 할 산이 많다"며 이같이 밝혔다. 이는 법률 업무에 생성형 AI를 적용하면 업무 생산성을 어느 정도 높일 수 있지만, 현재 AI 기술 수준으로는 큰 영향을 미치지 못한다는 의미다. 이를 도울 수 있는 정부의 AI 산업 육성 정책도 필요하다고 덧붙였다. 오정익 변호사는 법무법인 원 AI대응팀에서 일하고 있다. 그는 주로 AI 학습데이터 확보 과정서 발생할 수 있는 개인정보보호법을 비롯한 저작권법 위반 이슈, AI 헬스케어 관련 의료법 위반 이슈 등에 대한 자문을 진행해 왔다. "생성형 AI, 증거 가치 판단·사실 관계 확정 못해" 오정익 변호사는 생성형 AI 기술이 법률 업무를 어느 정도 보조한다는 입장이다. 특히 판례 검색과 법률 문서 요약에 생성형 AI 기술이 유용할 것이라고 내다봤다. 다만 이 이상으로 AI 기술이 법률 업무를 도우려면 여러 이슈를 해결해야 한다는 입장이다. 오 변호사는 "현재 수준의 AI 기술은 법률 업무 생산성에 획기적인 변화를 불러올 정도는 아니다"며 "법률 업무 핵심인 증거 가치 판단과 사실 관계 확정을 생성형 AI로 대체하기 어렵다"고 설명했다. 변호사들은 재판 전 법률 업무에 필요한 증거를 수집해 관계를 분석한다. 그 후 해당 관계가 얼마나 가치 있는 증거인지 판단한 뒤 이를 서면에 녹여낸다. 서면 작성 시 어휘 선택과 어조를 조절하는 작업에도 꽤 많은 시간을 소비한다. 일반적으로 두 업무가 재판 준비 시 시간과 공이 가장 많이 들어간다. 오정익 변호사는 "해당 업무는 인간 법조인의 핵심 역할"이라며 "이를 AI 기술에 맡기는 건 아직 무리"라고 말했다. 생성형 AI가 인간 법조인처럼 증거 가치를 판단, 평가하기엔 기술적으로 역부족이라는 의미다. AI에 증거 가치를 판단할 수 있도록 기준을 제시하는 것도 어려운 실정이다. 오정익 변호사는 생성형 AI가 해당 기능을 수행할 수 있어도 문제라는 입장이다. 그는 "AI를 가르치는 데 필요한 학습데이터 확보도 어려운 상황"이라며 "비즈니스 목적으로 자료가 활용될 수 있을까에 대한 의문점이 있다"고 말했다. 그러면서 "일각에선 당장 법률 업무 효율을 30%까지 높인다는 목소리가 나오고 있는데, 현실적으론 어렵다"고 덧붙였다. "AI 신뢰성 평가 기술 필수...정부, AI 산업 육성 정책 꾸준해야" 오정익 변호사는 AI 기술이 활용되기 위해선 뚜렷한 검증을 거친 AI 모델 신뢰성 평가를 필수로 둬야 한다고 했다. 법률 분야에 활용되는 AI의 오류를 짚어주고, 정확한 법률 평가나 설명을 할 수 있는 기술 개발이 추가로 필요하다는 말이다. 그는 "법률 분야는 권리의무 등 중대한 사항을 다루는 분야"라며 "판단이 잘못되면 상당한 위험성을 내포하고 있다"고 기술 필요성에 대한 이유를 밝혔다. 이와 관련해 오 변호사는 영국과 캐나다 AI 법안에 관해 설명했다. 최근 캐나다와 영국은 법원에서 AI 불완전성으로 인한 위험 발생을 막기 위해 준수할 사항을 정한 지침을 마련하기 시작한 바 있다. 오 변호사는 국내 AI 법안에 대한 의견도 알렸다. 현재까지 AI 기본법 관련해 국회에 10개 넘는 법안이 발의된 상태다. AI 기본법안은 지난해 소원위회 대안 의결 통과됐다. 그러나 4월 총선을 앞둔 현재까지 확정된 대안조차 마련되지 못한 상황이다. 오 변호사는 "AI에 대한 구체적인 법안보단 산업 육성을 위한 정책부터 적극적으로 추진해야 한다"며 "이와 더불어 EU의 AI법을 비롯한 미국, 캐나다, 영국 등의 입법 상황을 보면서 AI 법안을 신중히 추진해야 한다"고 강조했다.

2024.02.26 16:13김미정

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전자, 브로드컴과 HBM3E 12단 공급 추진…ASIC서 기회 포착

메타의 공격적 AI 인재 사냥, 핵심은 '데이터 전쟁'

입점하면 서로 이득…유통가, ‘올다무’ 유치 경쟁 치열

이재명 대통령 "AI·반도체·재생에너지·문화 투자 아끼지 않겠다"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.