• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오정익'통합검색 결과 입니다. (4건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

법무법인 원, 기업인 위한 '유럽연합 AI법' 세미나 개최

기업이 반드시 알아야 할 '유럽연합(EU) 인공지능(AI)법' 핵심을 설명하는 행사가 열린다. 법무법인 원과 모두의연구소는 이달 17일 모두의연구소 강남 캠퍼스에서 'EU AI법과 기업 대응'을 주제로 세미나를 개최한다고 15일 밝혔다. 이번 세미나는 AI 활용 분야를 4단계 위험 등급으로 정의한 EU의 새로운 AI 규제 내용에 대한 기업 이해도를 높이기 위해 마련됐다. 딥페이크, 저작권, 개인정보 문제 등 AI 기술 악용으로 인한 기업의 법적 리스크를 확인하고 점검 및 대응 계획 수립을 목표로 뒀다. 세미나는 법무법인 원 AI대응팀 오정익 변호사 발표로 시작한다. 법무법인 원 김윤명 전문위원, 그리고 인이지 장윤석 사업총괄이사의 발표가 이어진다. 이어지는 토론에서는 법무법인 원 AI대응팀장 이유정 변호사 사회로 자유 토론이 진행된다. 세미나 참가 신청은 법무법인 원 홈페이지를 통해 가능하다. 법무법인 원 AI대응팀은 2020년 출범 후 AI 기술 활용 기업들이 부딪치는 다양한 법률 이슈 및 보안 문제에 대한 법률 자문을 제공하고 있다. 행사를 함께 개최하는 모두의연구소는 다양한 AI 기업, 기관, 단체 교육을 진행하고 있다. 법무법인 원 AI대응팀장 이유정 변호사는 "EU 의회가 AI법을 통과시킨 이후 글로벌 기업 대응에 나서고 있다"며 "법 적용 시점은 약 2년간의 유예 기간이 있지만 EU AI법은 포괄적인 규제를 규정하는 기본법인만큼 향후 경영 전략과 방향성을 검토를 위해서라도 면밀하게 검토하고 대응할 필요가 있다"고 강조했다. 이어 "법무법인 원 AI대응팀은 기업을 위한 AI 규제 대응, 컴플라이언스 자문, AI 윤리 교육 등 다각도의 법률 서비스를 제공할 계획이다"고 덧붙였다.

2024.04.15 10:56김미정

'AGI 시대' 어떻게 준비할까…"AI 윤리·안전성 세분화부터"

인공지능(AI) 기술이 무섭게 성장하고 있다. 지난달 미국에선 오픈AI를 비롯한 구글, 스태빌리티AI 등 AI 기업이 새로운 모델과 서비스를 쏟아냈다. 앤트로픽도 새 모델을 공개하면서 GPT-4를 능가했다는 평을 받고 있다. 이번 주 엔비디아도 고성능 AI칩과 소프트웨어(SW)를 내놨다. 이 와중에 지난주 유럽연합(EU) 의회가 AI법 최종안을 통과시켰다. 일부 전문가들은 AI가 사람의 지적 수준을 넘어서는 현상을 말하는 'AI 특이점' 또는 '일반인공지능(AGI)' 시대가 곧 올 것으로 예측하고 있다. 아직 멀었다는 의견도 있다. 향후 혼선을 없애기 위해 AI 안전과 윤리부터 구체화해야 한다는 주장도 나오는 추세다. AI 주권 또한 잊어선 안 된다는 의견도 등장했다. 지디넷코리아는 포티투마루와 공동으로 '생성형 AI: 특이점이 올 것인가'를 주제로 좌담회를 개최했다. 좌담회에선 최근 이슈인 특이점에 대한 기준, AGI에 대한 개념에 대해 이야기 나눴다. AI 안전과 윤리, 국내 AI법이 가야 할 방향도 토론했다. 이번 좌담회에 건국대 김두현 컴퓨터공학부 교수, 서울교육대 김봉제 윤리교육과 교수 겸 AI 가치판단 디자인 센터장, 카이스트 김진형 명예교수, 법무법인 원 오정익 AI대응팀 변호사, 경희대 이경전 경영대학·빅데이터응용학과 교수, 상명대 이청호 계당교양교육원 철학담당 교수가 참석했다. 사회는 김동환 포티투마루 대표가 맡았다. AI특이점·AGI시대 올까…"과학적으로 개념화 어려워" - 김동환 대표(이하 사회): 최근 오픈AI가 테스트로 이미지를 생성하는 '소라'를 출시했고, 구글도 '제미나이 1.5'와 '젬마'를 내놨다. 스태빌리티AI도 '스테이블 디퓨전 버전 3'를 공개했다. 이렇게 생성형 AI가 비약적으로 발전함으로써 인간의 지적 능력을 넘어서는 지점, 즉 AI 특이점이 올 것인지, 온다면 언제쯤 올 것인지, 왜 그렇게 생각하는지 다양한 관점에서 얘기를 나눠보고자 한다. - 김진형 교수: '특이점' 용어 자체가 모호하다. 학자들이 특이점을 이야기할 때 '특정 분야를 사람보다 더 잘하는 AI가 나타난 순간'과 '이것저것 다 잘하는 범용 AI의 출현'이라고 한다. 다른 학자들은 지구상 모든 인류의 지능 총합과 AI의 합 중에서 AI가 능가할 경우 특이점이 온 것으로 정의하기도 한다. 비전문가들은 특이점을 단지 일 잘하는 AI, 모든 걸 잘하는 AI가 등장했을 때 특이점이 왔다고 생각한다. 다만 이런 식으로 생각하면 몇몇 분야에서는 특이점이 왔다. 반면 다른 분야는 그렇지 않다. 기준이 모호하다. -사회: 최근 AGI도 자주 언급되기 시작했다. AGI 시대가 곧 올 거라는 의견이 많아지고 있다. 현재 샘 알트먼 오픈AI 최고경영자(CEO)가 AI 반도체 구축을 위해 전 세계를 돌아다니고 있다. 이것도 다 AGI 시대를 준비하기 위해서라고 본다. 기술적으로 준비는 차질 없이 되는 듯하다. AGI의 등장도 AI 특이점이라고 봐야 할까. - 김두현 교수: AI의 특이점을 인간과 AI 기술의 축구 경기로 비유할 수 있다. 지금은 전반전이다. 경기 시작부터 인간이 이기고 있어서 현재 1:0 정도로 진행 중이다. 전반전 끝나는 시점이 되면 1:1 정도가 되지 않을까 싶다. 현재 범용 AI든 특화용 AI든 무엇이 더 잘하냐를 볼 때, 아직은 인간이 잘하는 게 좀 더 많다. 다만 AI가 많은 영역에서 인간 능력을 따라잡을 것이다. 그래서 전반전은 1:1로 끝날 가능성이 높다. 관건은 후반전이다. 후반전 중반쯤 AI가 인간을 따라잡아서 2:1 정도 될 수 있을 것 같다. 이 상태에서 10년 더 지날 경우, 3:1까지 격차가 벌어질 수 있다고 본다. AGI가 반드시 필요할까라는 의문이 든다. AGI를 만들어서 어디다 쓸 건지는 좀 고민을 해봐야 한다. AI가 오히려 산업적으로는 필요하지만, AGI가 우리 삶에 유용할까라는 점을 생각할 필요가 있다. - 오정익 변호사: 누군가 '패널 중 누가 지능이 제일 뛰어날까'라고 묻는다면, 아무도 답할 수 없다. 어느 분야에 대한 지능으로 볼 것인가, 비교 기준점은 무엇인가에 따라 답은 다르다. 법률 분야에서 AI는 법률을 검색하고 판례를 요약하는 역할을 한다. 그 이상의 업무를 AI가 진행할 때 고려해야 할 점이 많다. 일반적으로 법조인은 어떤 행위에 대한 증거 가치를 판단하고, 그 증거를 재판에 어떻게 적용할지 생각한다. 이전 판례를 참고해 판단할 수는 있지만, 어려운 작업이다. 판결문을 작성하기 전 필요한 모든 것들을 완벽히 할 수 있는 AI는 아직 출현하기 어려울 것으로 보인다. 앞으로는 더 좋아질 거라는 생각은 든다. - 김봉제 교수: 가치 판단이라는 말이 나왔는데, 논리성은 이미 AI가 인간 능력을 넘어섰다고 본다. 다만 AGI를 위한 AI 발달을 7단계로 나눠봤을 때, AI에서 AGI로 넘어가기 위해 필요한 건 도덕 판단·가치 판단 능력이다. 결국 일상생활에서 AI가 자신의 선택을 정당화할 수 있고, AI 판단력이 사회적으로 받아들일 수 있는 수준이어야 AI 특이점이 왔다고 할 수 있다. 다음 세대를 위해 AGI는 필요하다고 본다. 교육 쪽에 있다 보니까 상상을 많이 한다. 아이들이 학교에서 집에 오면 부모가 없을 때가 있다. 그때 아이들은 AGI 시스템과 대화를 할 수 있다. AGI한테 학교에서 무슨 일이 있었고, 친구와 무얼 하며 놀았고 등등 이런 것 주제로 대화할 수 있다. 즉 AGI 시대에는 아이들이 일상 대화를 AGI와 자연스럽게 할 수 있을 것이다. 이러한 특이점을 확보한 AGI는 우리 세대가 아니라 다음 세대에게 당연한 게 아닐까 라는 생각이 든다. - 오정익 변호사: EU의 AI법안을 보면, 복지서비스 공급을 위한 평가, 교육 우선순위 제공 등 사람에 대한 가치 판단을 하는 AI는 '금지된 AI'로 분류됐다. 인간 심사자가 서류를 통해 종합적으로 판단하고, 사회적인 가치를 반영해 평가할 순 있지만 이를 AI로 해선 안 된다는 게 EU의 AI법안이다. 이미 EU는 이러한 가치 판단을 AI에 맡기지 않는 기조로 갈 전망이다. 인간으로서 할 수 있는 분야 몇 분야가 벌써 AI를 금지하고 있는 것이라 할 수 있다. AI가 할 수 있는 영역이 너무 많다. 앞으로 사람은 AI를 어디까지 허용해야 할 것이고, 할 수 있어도 활용을 할 것인지 사회적 논의를 해야 할 것이다. 현재 이런 단계가 온 것 같다. 그런데 아무도 이 논의를 하고 있지 않다. 이러한 논의를 하지 않았을 경우 가장 먼저 피해를 보는 분야가 나올 것이다. EU는 AI법 관련 공청회를 현재까지 500회 이상 했다고 말하고 있다. 실제 자료도 많다. 정부뿐 아니 전 사회가 관련 논의를 해야 할 필요가 있다. - 이경전 교수: AI는 그냥 사람이 이용하는 도구일 뿐이다. 인간과 도구의 대결이 아니라 이 도구를 갖고 있는 사람과 또 다른 도구를 갖고 있는 사람의 경기라고 본다. AI는 그냥 인간이 만든 기계다. 소유권도 인간에게 있다. 기업들이 계속 경쟁하면서 AI 서비스를 팔고 있는 추세다. 서비스를 판다는 건 누구의 소유권을 이전한다는 의미다. 사용권을 이전하거나 재산권을 이전하는 건데, 그러다 보면 결국은 얀 르쿤 메타 AI수석과학자가 얘기하는 것처럼 결국은 수천만의 사람이 저마다 다른 AI를 가지게 될 것이다. AI의 특이점이라든지 AGI 시대 등은 수학적으로 정확히 논의할 수 없는 주제다. 이 시대가 온다 안 온다라고 이야기하면 혼란만 가중된다. 인간이 능력 없어서가 아니라 수학적으로 정의가 되지 못하기 때문이다. - 이청호 교수: AI가 일반지능이냐, 초지능이냐 이런 기준으로 이야기하기보다는 얼마나 인간의 삶에 영향을 미치고, 사람이 AI에 얼마나 의존하고 얼마큼 활용하는지 생각하는 게 더 중요할 것으로 본다. AI를 어떤 분야에 적용하고, 이를 어느 정도로 개발해야 하는지에 대한 선택과 집중 문제가 계속 생길 것으로 전망한다. 이런 측면에서 AI 특이점을 논하는 것도 중요할 수 있지만, 어떻게 사람이 AI를 잘 활용하고 통제, 관리해서 기술과 공존할 수 있을까의 문제에 좀 더 초점을 맞추는 게 좋다고 본다. "정부, AI 안전성·윤리 세분화 기준 마련해야…개발자도 논의에 참여해야" - 사회: 다음 주제는 'AI 안전성'이다. 지난해 11월 영국서 열린 'AI 안전 회의'에서 각국 정상들이 AI 안전성을 이야기했다. 이에 대한 연장선상으로 올해 5월 서울에서 이 행사가 열린다. 그만큼 AI 안전성에 대한 중요도가 커졌다. 최근 AI 안전성이 중요하니까 AI 법제화를 해야 한다는 목소리도 커지고 있다. 반면 사람이 기술 발전을 막을 수 없으니 이에 대한 자율성과 보완책을 마련해야 한다는 의견도 나오는 모양새다. 현재 AI 안전성 현주소와 개선해야 할 점은 무엇일까. - 오정익 변호사: 지난해 12월 캐나다가 '법원의 AI 이용 원칙 및 지침'을 발표했다. 같은 달 영국도 '법관의 AI 이용 지침'을 내놨다. 캐나다에서 소송 과정 중 법조인이 AI를 사용해 생성한 문서에는 맨 앞에다 '이 문서는 AI로 생성한 문서다'고 표시하도록 의무화했다. 법원이 AI를 이용할 때는 특정 원칙을 준수하고 공표해야 한다. AI의 위법성 파악, 투명성 등을 준수하라는 것이다. 영국 지침도 마찬가지다. 법관이 확인되지 않은 법률 정보를 검색할 때는 AI를 이용한 검색을 자제하라는 내용이다. 이미 알고 있는 법률 문서를 찾을 때는 괜찮지만, 자기가 알 수 없는 걸 검색할 때는 문제가 될 수 있기 때문이다. 법률 분야는 인간의 권리 의무 관계에 중요한 영향을 미친다. 현재 팩트를 100% 확인할 수 없는 상황에서 AI를 쓰는 게 위험하다라는 것이 기저에 깔려 있다. 캐나다는 한국보다 훨씬 AI 활성화가 빨라서 그런지 이러한 이야기들이 자주 나온다. 법률 분야에 AI가 들어가려면 범용 기능을 충분히 갖춘 후, 여기에 법률 내용을 덧입혀야 한다고 본다. 사법 분야에서는 AI의 안정성뿐 아니라 투명성, 편향성을 포함한 넓은 의미의 신뢰성에 관한 부분을 중요하게 봐야 한다. 다만 AI의 기능을 기술적으로 어떻게 검증할 것인가의 문제는 아직 논의되고 있지 않다. 기술적으로 AI를 어떻게 평가할 것인지, AI가 어느 정도 안전한지, 사법 분야에서는 얼마나 AI를 안전하게 활용할 수 있을까에 대한 평가가 이뤄지고 있지 않다. 기업이 전혀 관심 두지 않는 분야다. 기업 입장에서 이러한 검증이 이뤄지는 순간 부담으로 작용하기 때문이다. 따라서 국가는 이러한 검증 기준을 마련하고 안내해야 한다. AI 개발이 잘못된 방향으로 가지 않도록 해야 한다. 다만 AI 법제화는 서두르면 안 되는 것 같다. 법제화가 한번 굳어지면 오히려 규율로 작용할 가능성이 높다. 국내 AI 기업은 한국만 시장으로 보지 않는다. 한국형 법제화 구조를 만들면, 오히려 그 규제를 받지 않은 외국 기업이 국내에서 상대적으로 발전할 수밖에 없다. 따라서 정부는 법적 효력은 없지만 안내를 해줄 수 있는 가이드라인 수준으로 방향성을 보면서 AI 법을 만드는 게 맞을 것으로 본다. - 사회: 기술 관점에서는 AI 안전성을 어떻게 보나. AI 기술이 사회에 부작용을 주더라도 개발자는 이를 지속적으로 개뱔해야 할까. - 김진형 교수: AI 제품 안전을 위해 규제가 좀 강해도 문제없다고 본다. 아무래도 AI가 널리 많이 쓰이다 보니 잘못 활용될 가능성이 높다. 완전하지 않은 기술을 현장에 갖고 나오는 걸 철저하게 막아야 한다. 현재 자율주행차가 100% 안전하지 않기 때문에 길거리 못 다니게 하는 것과 같다. 엔지니어 역할도 중요하다. 제품이 안전하지 않으면 안전하지 않다고 알려야 한다. 이는 엔지니어의 사명이다. - 김두현 교수: 규제에 대한 표준이 필요하다. 공신력 있는 기관에서 해당 표준을 정해줘야 한다. 그래야 기술이 투명해진다. 기술이 투명해야 소비자들이 안전한 선에서 기술을 자율적으로 활용할 수 있다. 그런 면에서 오픈소스가 중요한 역할을 할 수 있다. 무언가를 오픈소스로 개방하면 많은 개발자나 관계자들이 그 내용을 사전에 검증할 수 있다. 이런 방식처럼 규제도 동일하게 생각해 보는 것도 좋겠다. - 김봉제 교수: 규제가 세분될 필요도 있다. 그래야 개발자들이 AI 안전성을 구체적으로 검증하고, 윤리학자들이 AI 안전성을 윤리적 측면에서 집중적으로 검증할 수 있다. 안전성을 보장하면서도 기술 개발을 할 수 있는 환경을 조성하는 셈이다. 일단 기술 개발은 이어져야 한다. 그러나 안전성과 관련해서는 국가 수준에서 판단할 수 있는 기준 등을 구체화해서 AI 기능별로 맞춰야 한다. - 김진형 교수: 제품의 문제점은 그걸 만든 사람이 제일 잘 안다. 현재 대기업들은 내부적으로 AI 제조 과정이 체계화됐다. 어느 부분에서 기술 중간 점검을 하고 검토해야 하는지 다 정해져 있다. 이런 식의 접근법이 우리가 가야 할 방향이라고 본다. 현재 AI가 예상치 못한 어떤 큰 위해를 사람에게 끼쳤을 때 누가 책임져야 하냐는 논쟁도 있다. 개인적으로 AI를 만든 사람이 책임져야 한다고 본다. 따라서 엔지니어로서 아니면 제품을 파는 사업가로서 자기 기술과 제품이 사회에 끼칠 해악을 늘 생각하고 고민해야 한다. - 오정익 변호사: 사실 AI가 주목받는 이유는 기존과 다른 기술이라는 점 때문이다. AI 안전성이 무엇인가 논의하는 게 중요해졌다. 기술 수준은 높아졌는데, 오히려 철학적인 문제가 더 중요한 시대가 돼버렸다. 지금까지는 법이 정해지거나, 기술 위험성이 알려졌으니까 모두 그러려니 하며 살았다. 그러나 AI는 너무 방대한 영역에 들어설 수 있다보니 모든 사회적 논의와 다 연관됐다. 안전성을 늘 논의해야 한다. 앞으로 인문학자, 철학자뿐 아니라 개발자들도 머리를 맞대고 AI 안전성 논의를 해야 한다. 안타까운 건 이 기술이 워낙 빠르게 발전하고 있다는 것이다. 아무래도 시장성이 중요할 수밖에 없다. 이런 상황에서 엔지니어들이 더 깊숙하게 안전성에 대해 생각해야 한다. 현재 산업계에 AI 법제 정비를 하는 종사자들이 있긴 하다. 그러나 이들은 법을 잘 모른다. AI에 대해 잘 모르는 사람들이 규제를 만드는 상황이 온 것이다. 그럼 나중에 '뭐 이런 얼토당토않은 법이 있어'라는 목소리가 커질 수 있다. 신기술일수록 개발자가 적극적으로 들어와서 법 제도에 개입해야 한다. 논의가 산으로 가지 않도록 해야 한다는 것이다. 옛날처럼 뒷짐 지고 있으면 탁상공론에 그칠 수 있다. - 김봉제 교수: AI 안전성은 교육 관점에서도 중요하다. 조금 다른 의견을 제시하겠다. 구글 챗봇 제미나이, 오픈AI 챗GPT, 네이버 클로바X에게 동일한 딜레마 상황을 줬었다. 어떤 갈등 상황을 준 다음, 이에 어떻게 대처해야 할까라는 식의 질문이었다. 이때 AI에 필요한 건 도덕적 판단력이었다. 그랬더니 제미나이와 챗GPT는 답 자체를 안 했다. 클로바X만 답했다. 보통 윤리적으로 도덕적 판단력을 검증할 수 있는 단계가 있는데, 예를 들어 1단계부터 5단계까지 있다고 쳤을 때, 클로바X는 4단계 수준으로 답을 했다. 이게 오히려 문제가 된다. 2단계 수준의 지능을 가진 어린이에게 클로바X가 4단계로 답을 하면 안 된다. 아이들 발달 단계에 좋지 않다. 대답 자체가 아이한테 자괴감을 줄 수 있다. 챗봇이 아이 수준을 뛰어넘는 생각을 하기 때문이다. 챗봇은 2단계 아이에게 3단계에 맞는 답을 주거나, 2단계 정도의 안정적인 답을 주면서 반응해 줘야 한다. 일반적인 답을 주면 성인이 볼 때는 문제 없지만, 교육 전문가가 시각에서, 이는 어린이 발달장애에 상당한 해를 끼칠 수 있을 거라고 본다. - 이경전 교수: 예전 AI 챗봇 '이루다'가 나왔을 때, 이루다에게 성적인 발언을 하는 사람들은 큰 비난을 받았다. 사실 그 사람은 법적으로 아무 잘못 없다. 이루다는 기계이기 때문에 이를 성희롱으로 인지하지 못한다. 현재 오픈AI의 챗GPT 웹 버전 하단을 보면 '챗GPT는 기계이므로 실수를 할 수 있다'고 명시돼 있다. 매우 적절한 조치라고 본다. 계속 이를 알려야 사람들이 잘못 생각하지 않는다. 챗봇은 사람이 아니라 기계라는 개념을 계속 알려야 한다. 또 다른 예시도 있다. 예전 한 정치인이 로봇 개를 발로 찬 적이 있다. 사람들이 그를 비난했다. 개가 불쌍하다는 이유에서다. 사실 그 정치인은 로봇 개가 어떤 자극에도 문제없다는 걸 보여주기 위한 퍼포먼스를 한 것이다. 로봇 개는 고통을 못 느낀다. 그런데 사람들은 공감 능력이 있기 때문에, 개가 차인 것에 대해 아픔을 느꼈다. 여기서 윤리적 판단을 기대하는 건 착각이라고 본다. 만약 그 정치인이 로봇 개 소유권자의 허락을 받았다면 그 개를 차면서 기능 테스트를 해도 된다. 로봇에 손상을 입혔을 경우 금전적 보상을 하면 된다. 윤리상 아무 문제는 없다. 개인의 사생활이나 개인의 도구 이용 방식, 개인의 사적인 사용이라는 것에 윤리적 잣대를 들이대는 것은 오히려 더 비윤리적이라고 본다. - 이청호 교수: 로봇 개를 학대하는 것은 직접적으로 인간에게 나쁜 영향을 끼치지 않는다. 그러나 칸트 이론에 따르면, 이는 잠재적으로 나쁜 영향을 끼칠 수 있다. 현재 칸트가 존재했다면 한 정치인이 로봇 개를 차는 모습을 보고 이와 같이 발언했을 것 같다. - 오정익 변호사: 어느 부분을 윤리로 바라볼 것인가가 중요하다. 철학적인 문제와 사회적으로 어느 부분까지 허용할 것인가의 윤리는 또 다른 문제라고 본다. 내가 로봇 소유자로서 누군가가 내 로봇을 발로 찼을 때 비난할 권리는 있다. 그러나 사회적으로 용납 안 되는 윤리는 또 다른 문제인 것 같다. 접근 방법이 다르다. 이루다를 예시로 들면, 사람이 이루다에 성희롱 발언을 하는 행위 자체는 자유로울 수 있고 윤리적 문제도 없을 수 있다. 그러나 본인이 피폐해지는 걸 법적으로 강제할 수 없다. 자살하는 것도 법률적으로 금지할 수 없지만 본인이 자살하는 건 범죄가 아니다. 어떤 지점에서 보면 윤리의 사회적 합의가 필요한 시점이라 할 수 있다. - 김봉제 교수: '피폐해진다'는 그 표현 자체가 일단 답을 좀 갖고 있다고 생각한다. 로봇 개를 때리고, 이루다에게만 성적인 발언을 하면서 혼자 살면 상관없다. 그런데 결국 피폐해진 마음을 갖고 사회 속에 나와서 관계하고 살면 그 피폐한 영향력이 자기에게만 한정되지 않고 타인에게 잠재적으로 간다. 그런 부분 때문에 윤리성 고려를 해야 한다. - 이경전 교수: 지난해 AI 안전성 회의는 나름대로 의미 있다고 볼 수 있다. 중국까지 이 행사에 와서 프론티어AI 합의를 했다는 점에서 주목할 만하다. - 김진형 교수: EU의 AI법은 AI에 대한 리스크 레벨을 개념화한 건 주목할 만하다. 이런 점에서 AI 안전성 회의는 합리적인 생각을 나눌 수 있던 자리였다. 무조건 AI는 다 위험하다는 논리는 더 이상 통하지 않는 시대가 왔다. 예를 들어, 누군가가 'AI를 통제합시다'고 했을 때, '어떤 AI를 이야기하는 것이냐'고 구체적으로 나가야 한다. - 이경전 교수: 프랑스 정부는 EU의 AI법의 강력한 규제에 다소 회의적이다. 자국 기업 미스트랄AI의 미스트랄이 높은 퍼포먼스를 보이니까, 프랑스가 AI 규제론에 가까웠다가 이제 개방적으로 바뀌고 있다는 말이 나오고 있다. 중국도 지난해 입법 공약을 보면 처음에 굉장히 강했다. 현재 미국과의 경쟁을 위해서 중국 내부 법률도 많이 완화된 상황에 있는 것 같다. - 김진형 교수: 부끄럽지만, 한국 AI 기술이 선두는 아니다. 더 강하게 AI를 쓰는 나라들이 어떤 문제를 겪고 있는지를 잘 들여다보고 이를 규제에 반영하는 것도 좋은 전략이 아닐까 싶다. "국내 AI법, 좀 늦어도 된다…한국 체질에 맞게 만들어야" - 사회: 최근 소버린AI와 AI주권에 대한 이야기가 지속적으로 나오고 있다. 독자적인 LLM을 보유하고 있느냐 아니냐가, 핵무기를 보유하고 있느냐, 아니냐와 직결된다는 말도 심심찮게 나온다. 현실적으로 한국 기업은 해외 빅테크에 비해 열악하다. 이런 상황에서 한국 정부나 기업들은 AI 패권을 쥐기 위해 어떻게 접근해야 할까. - 이청호 교수: 스탠퍼드대의 휴먼 센터드 인덱스에서 제시한 AI 인덱스를 보면 2016년에는 AI와 관련된 법안이 하나밖에 없었다. 2022년 37개로 늘었다. 전 세계적으로 AI 분야는 국력과 직결될 수 있는 가장 중요한 산업 분야로 부상하고 있다는 것은 부인할 수 없는 사실이다. 현재 우리 정부가 AI 가이드라인에 대해 큰 신경을 쓰지 않다가 뒤늦게 전면적으로 나서고 있는 듯하다. 전 세계적으로 AI 전쟁은 예전부터 시작됐다. 현재 더 가시화되고 있다. 이런 상황에서 우리는 AI 기술뿐 아니라 법에서도 선두 주자는 아니다. 미국이나 중국, 아니면 캐나다 이런 나라들이 AI 기술에 있어서 선두 주자라고 한다면 우린 후발주자로서 좀 느리더라도 안전하게 가야 한다. 선두 주자들이 어떻게 기술 개발하는지를 파악해야 하고 우리나라 체질에 맞게 따라가는 것을 정하는 것도 좋은 전략이다. - 사회: 최근 일본은 원천 기술 개발보다는 서비스 모델 개발하는 데 집중하겠다고 밝혔다. 국가 차원에서는 아예 그냥 선언처럼 해버린 상황이다. 우리도 비슷한 상황인 것 같다. 원천 기술 쪽에 조금 더 투자하고 집중해서 갈 거냐, 아니면 활용하는 쪽으로 갈 거냐 그런 부분들에 대한 현실적인 고민이 있는 듯하다. - 이경전 교수: 일본 사례를 비춰보면, 초거대 AI 모델 만드는 기술 자체가 일상품화(Commodity화) 될 것으로 본다. 앞으로 기업은 투트랙 전략으로 가야 한다. 초거대 AI 기술을 개발하는 것과 초거대 AI를 잘 사용해서 서비스를 만드는 것이다. 아쉬운 점은 한국 정부가 LLM 보유 기업으로 네이버, LG AI연구원, KT 등만 언급하고 있는데, 스타트업에서도 수준 높은 개발사가 나와야 한다고 본다. 정부가 스타트업 자금 대주는 대기업에 인센티브를 주는 방식도 좋다. 지금도 정부가 국내 벤처기업에 돈을 내는 거나 마찬가지다. 이런 정책적 노력이 필요하다. "고품질 데이터 절실...네이버, 오픈AI처럼 공격적 사업 해야" - 김두현 교수: AI 주권은 자립을 의미하는 것 같다. 자립은 기술적 자립과 산업적 자립으로 이뤄졌다. 기술 자립은 이경전 교수가 언급한 투트랙 전략이라 할 수 있다. 다만 산업적 자립에 있어서 과연 우리나라가 탄탄하게 자립이 가능할지 생각해 봐야 한다. 몇 개의 대기업이 앞서가고 있지만, 대기업이 대부분의 트래픽을 갖는 구조로 가는 것보단 후발주자들 중소기업에게도 뭔가 햇빛이 들 수 있는 정책 요소들이 필요해 보인다. - 김진형 교수: 이경전 교수가 언급한 투트랙 전략이 맞다고 본다. 그렇게 가야 한다. AI는 상당히 많은 부분이 아직도 과학이다. 그래서 지금 어떤 방법론이 언제 새롭게 또 튀어나올지 모른다. 과학적인 획기적 변화가 AI에서 나오지 않고, 다른 쪽에서 나올 거라고 본다. 컴파일러 기술일 수도 있고, 컴퓨터 아키텍처 기술일 수도 있다. 과학적 투자가 우선이다. 특히 기초과학에 투자해야 한다. AI는 기초과학 요소가 많으면서도 산업적 효과도 크다. 그런 식으로 기초 연구 수업도 대학에서 많이 가르쳐야 한다. 현재 기초과학을 연구하는 연구원이 많지 않지만, 각각 역량을 보면 글로벌에서 높은 수준의 연구를 하고 있다. 연구원 인력을 좀 늘릴 수 있는 방법에 대해 고민을 해야 한다. 정부는 AI 발전 환경을 만들어야 한다. 지금 정부가 나서서 세금 들여가며 정부형 LLM 만든다고 발표했다. 할 필요 없다. 그냥 가만히 있으면 된다. 현재 네이버가 열심히 한다니까 지켜보면 되는 것이다. 혹시 네이버가 무슨 규제 때문에 일을 못하면, 정부가 그때 도우면 된다. 지금은 기업이 잘하는 걸 지켜볼 때다. - 사회: 최근 오픈소스 필요성에 대해서 강하게 얘기하는 목소리가 나오고 있다. - 김두현 교수: 그렇다. 오픈소스 모델이 쏟아지고 있다. 그런데 품질 입증은 쉽지 않다. 오픈소스 모델의 공개 여부도 하나의 이슈지만, 또 하나는 공개된 것의 품질에 대한 검증이 있어야 한다. 그래야 기업이 오픈소스를 마음껏 쓸 수 있다. 이를 위해 정부가 좀 해야되는 게 있지 않을까 생각이 든다. 오픈소스 모델을 어떻게 만들어 낼지도 관건이다. 사실 메타에서 오픈소스를 내지만, 과연 계속 공개되는 오픈소스 모델들이 오픈AI의 GPT-4나 향후 GPT-5를 쫓아갈 수 있을지 의문이다. 어느 순간 비공개 모델을 넘어서는 오픈소스가 나올 것인가도 중요한 이슈다. 설령 그렇지 않더라도 거기에 버금가는 오픈소스를 누군가가 만들어내야 한다. 다만 특정 기업만 오픈소스를 만드는 것은 좋지 않을 것 같다. 국제적 연대, 산업 연대가 필요하다. 오픈소스 개념은 참 좋다. 근데 그걸 만들어내려면 어딘가에서 훈련을 시켜야 한다. 그 인프라 비용을 과연 누가 낼 것인지도 정해야 한다. 고민거리다. 오픈소스에 대해서 정말 애착을 갖고 있는 기업들이 공동체를 만들어 이를 해결할 수 있다. 물론 실현 가능성도 지켜봐야 한다. - 김봉제 교수: 우선 의미 있는 데이터를 획득할 수 있는 구조를 만들어야 한다. 2021년에 정부도 데이터 구축 사업을 활발히 진행했다. 관련 사업을 여러개 맡기도 했다. 당시 데이터 수준이 너무 낮았다. 비용을 많이 들여서 사업을 했는데도 결과물이 좋지 않았다. 정말 의미 있고 깨끗한 데이터를 확보해야 한다는 걸 느꼈다. - 김두현 교수: 정부가 고품질의 오픈소스 구축을 위해 예산을 투입하는 건 쉽지 않을 것이다. 정제된 데이터를 갖고 있는 기업들이 함께 모여서 파운데이션 모델을 같이 만들고, 이걸 오픈소스 모델로 만드는 시스템을 구축해야 효과적일지 않을까 생각 든다. - 이경전 교수: '한국 AI 스타트업 100'에서 스타트업 선정하는 일을 최근 3년간 진행했다. 당시 기업들에게 정부가 어떤 정책을 펼쳤으면 좋을지 물어봤다. 그중 하나가 데이터 사업의 비효율성이었다. 정부가 공공 데이터를 많이 만들라고 사업을 지원했지만, 정작 기업은 가장 품질 낮은 데이터를 납품했다. 이를 활용한 기업들도 좋지 않은 결과를 얻었다. 당연한 이치라고 본다. 정부에 납품하는 순간 모든 사람이 해당 데이터를 공유해서 쓰기 때문이다. 데이터 가치는 떨어질 수밖에 없다. 기업은 정부 기준에 맞을 정도의 데이터만 납품하고, 좋은 데이터는 별도로 가질 수밖에 없다. 선해 보이는 정책이지만 결과는 반대였다. 결국 연합학습 방법론이 중요한 이유다. 현재 초거대 AI에는 세 가지 이유 때문에 버틀낵(병목 현상)이 일어난다. 데이터 버틀낵, 모델 사이즈 버틀낵, 컴퓨터 처리 용량의 버틀낵이다. LLM의 오토리그레시브 방법론은 결국 어떤 새로운 돌파구가 있지 않으면 성능의 한계에 빠질 것이다. 그 성능의 한계에 빠지면 결국 오픈소스 모델이 쫓아올 것이다. 결국 오픈소스 모델이 다 따라잡을 것이다. 그게 무서우니까 지금 오픈AI도 GPTs 만들고 여러 모델을 출시해서 네트워크 효과를 일으리켜고 한다. 사실 네이버의 진심을 믿지 않는다. 네이버가 소버린AI를 내세운다면, 네이버가 오픈AI처럼 공격적인 사업을 해야 한다. 사실 '하이퍼클로바X'가 눈에 안 띈다. 모바일 애플리케이션도 없다. 네이버 홈페이지 가면 하이퍼클로바X를 손쉽게 보기 힘들다. 한국 국민들이 하이퍼클로바X를 활발하게 쓸까 봐 겁을 내는 것 같다 네이버는 기업소비자간거래(B2C)가 아닌 기업간거래(B2B)에만 진심이다. 그래서 자꾸 정부 관계자나 의사 결정권자들한테만 국산을 쓰라고 강조한다. 국산 애용 운동만 하고 있다. 진짜 시장을 잡으려면 소비자들이 자신의 제품을 쓰게 해야 한다. 이와 반대로 네이버 홈페이지에도 잘 안 보이고, 모바일 앱도 없다. 다만 일본에서 라인을 출시하고, 일본에서 상장시킨 점은 높이 살 만하다. - 김진형 교수: 소버린AI나 AI 주권을 위해 범용 LLM을 무조건 우리 것으로 만들어야 되겠다고 하는 것에 동의하고 싶지 않다. 특정 분야에 대한 LLM은 전 세계에서 한국 기업이 제일 잘한다는 인상이 더 필요하다. 여기서 생기는 데이터를 어떻게 하면 전세계에 잘 공유할 수 있을까라는 고민도 정부 차원에서 해줘야 한다고 본다. 정부는 이러한 환경을 조성하는 역할을 해야지, 개입하는 게 아니다.

2024.03.20 13:58김미정

EU 의회 통과한 AI 법안…"강제성 짙고 디테일 없어" 비판

인공지능(AI) 법안이 유럽연합(EU) 의회를 통과한 가운데 법 실효성에 대한 지적이 이어지고 있다. 법적인 강제성이 너무 짙고, 이로 인해 AI 생태계 동력이 상실될 수 있을 거라는 우려다. 반면 AI법은 지속적으로 개선될 것이므로 일단 지켜보자는 의견도 나오고 있다. EU 의회가 13일 프랑스 스트라스부르에서 열린 본회의에서 AI법 최종안을 찬성 523표로 가결했다고 CNBC를 비롯한 외신들이 일제히 보도했다. 이날 표결에서 반대는 46표, 기권 49표가 나왔다. 최종안은 AI 활용 분야를 네 단계의 위험 등급으로 나눠 차등 규제하는 내용을 담고 있다. 고위험 등급으로 분류되는 의료, 교육을 비롯한 공공 서비스나 선거, 자율주행 등에서 AI 기술을 사용할 경우, 사람이 반드시 감독하고 위험관리시스템을 구축해야 한다는 내용을 담았다. 그동안 핵심 쟁점으로 알려진 얼굴인식 기술 사용도 엄격하게 제한하기로 했다. 생성형 AI 조항도 새로 추가했다. 금지 규정을 위반할 경우 최대 3천500만 유로(약 500억원) 혹은 세계 매출 7%에 해당하는 벌금을 내야 한다. AI법이 최종 확정된 것은 아니다. 오는 5월 유럽의회 마지막 확인 과정과 유럽이사회 인준 과정을 거쳐야 한다. 이후 각 회원국에 효력을 발휘하기까지는 최대 2년 걸릴 것으로 예상된다. AI 감시 기관 설립…생성형 AI 조항도 추가 최종안 내용에 따르면, EU 국가들은 올해 자체적으로 AI 사무소를 설립한다. 사무소 관계자들은 범용 AI 시스템에 대한 법 진행과 감독을 담당한다. 이들은 AI를 개발하는 기업에 정보를 요청하고 해당 시스템이 법망 안에서 작동하는 것을 확인할 수 있는 권한을 갖는다. 시민들이 억울하게 규칙 위반자가 됐을 경우, 해당 기관에 이의를 제기할 수도 있다. 법무법인 원 오정익 AI대응팀 변호사는 "EU 집행위는 올해 1월 사무소 설립을 결정하고 2월 이에 필요한 내부 절차를 진행 중인 것으로 알고 있다"고 밝혔다. 오정익 변호사는 "이 사무소가 해당 법 진행의 주도적인 역할을 할 것으로 본다"고 말했다. 법안 최종안에는 생성형 AI 조항도 추가됐다. 생성형 AI 모델 개발자는 시스템 학습에 사용된 온라인 텍스트, 사진, 동영상, 기타 데이터에 대한 자세한 요약 정보를 모두 공개해야 한다. 이와 동시에 EU 저작권법도 준수해야 한다. 개발사는 생성형 AI가 만든 이미지와 비디오, 오디오, 딥페이크 콘텐츠 등에 인위적으로 제작됐다는 표시를 별도로 해야 한다. 자율주행차 같은 고위험 기술을 사용하는 기업들도 데이터를 공개해야만 한다. 이와 함께 안전 강화를 위해 엄격한 테스트를 거치도록 했다. 2021년 AI법 구축을 시작하던 당시 생성형 AI에 대한 조항은 없었다. 당시 AI가 매우 제한된 범위 내에서 활용됐기 때문이다. 2022년 오픈AI의 챗GPT 출시 후, EU 정책 입안자들이 생성형 AI 조항 필요성을 느낀 셈이다. "공개 의무화 지나쳐…가이드라인 명확해야" AI법이 다소 지나치다는 지적도 나왔다. 다수 AI 기업은 법 강제성이 너무 짙다는 입장이다. 또 AI 문제 발생에 대한 법적 책임 등 세부 항목이 부족하다는 점도 지적했다. 김동환 포티투마루 대표는 AI법이 고위험과 저위험을 나누는 건 좋지만 기업에게 의무성을 지나치게 부여했다는 점을 꼽았다. 김동환 대표는 AI 개발사의 학습 데이터 공개 의무 조항을 예시로 들었다. 그는 "기업이 어떤 종류의 데이터를 AI 모델에 넣는지, 어떻게 데이터를 다루는지 공개하는 건 과하다"며 "마치 영업 비밀을 만천하에 공개하는 것과 같은 이치"라고 말했다. 일반적으로 개발사는 AI 모델에 데이터를 필터링 없이 넣지 않는다. 각 기업 기술력과 노하우로 데이터를 가공·정제한다. 이 과정은 모델 성능을 좌우할 수 있을 정도로 중요하다. 김 대표는 "기업들은 학습 데이터 공개로 자사 기술을 침해 당할 수 있다"고 설명했다. 그는 AI 제품 문제 발생 시 법적 책임에 대한 조항도 부족하다고 했다. 김동환 대표는 "기업이 AI법을 다 지켜서 AI 제품을 개발해도 문제가 발생할 수 있다"며 "이때 누가, 어떻게 책임을 질 것인지에 대한 명확한 조항이 없다"고 지적했다. 그는 "이대로는 기업이 법도 지키고 책임까지 다 질 수 있을 것"이라고 덧붙였다. AI법이 빅테크뿐 아니라 스타트업에도 영향을 미칠 것이라는 의견도 내놨다. 김 대표는 "스타트업이 개발뿐 아니라 AI법까지 디테일하게 지키기엔 여력이 부족할 수 있다"며 "스타트업 생태계를 망가뜨릴 수 있을 것"이라고 전망했다. 오정익 변호사도 AI법에 명확한 기준이 정해지지 않은 점을 지적했다. 오 변호사는 "예를 들어, 주요 인프라 관련 AI 시스템 중 어느 범위를 고위험 AI에 넣는 것으로 볼 것인지에 대한 명확한 기준이 없다"고 지적했다. 그는 "우선 법적인 기준이 명확히 정해져야 혼선이 없을 것으로 보인다"며 "이에 관해 추가적인 지침이나 가이드라인 등이 나올 것으로 본다"고 설명했다. 미국 "EU, 기업 경쟁력 제한" 비판…국내 관계자 "한국, 미국·유럽 전략 융합" 미국 전문가들도 AI법에 대한 우려하고 있다. 법이 기업 경쟁력과 투자 생태계를 제한할 것이라는 이유에서다. 유럽 싱크탱크 연구소 카네기 랄루카의 세르나토니 연구원은 "유럽 내 AI 기업은 미국, 중국 빅테크들로부터 투자금과 기술 주권을 빼앗길 수 있다"며 "AI 리더십에 대한 EU의 야망은 상당한 장애물에 봉착할 것"이라고 CNBC를 통해 지적했다. 미국 로펌 하보틀 앤 루이스의 엠마 라이트 변호사는 "AI는 빠르게 변화하는 기술"이라며 "2년 후 AI법은 구시대적인 법안으로 전락할 수 있다"고 했다. 국내 법률 관계자도 정부가 AI법을 급히 따를 필요 없다는 입장이다. 강민구 서울고등법원 전 부장판사는 "EU권 국가는 미국과 비교할 수 없을 정도로 뒤처진 AI 기술 수준을 갖고 있다"며 "이런 상황에서 여러 가지 기본권 보호, 데이터 주권, 개인정보 보호 등을 앞세우는 규정을 만들어 낸 셈"이라고 설명했다. 강 전 부장판사는 "한국은 EU의 AI 규제 입법 추세를 검토하더라도 AI 산업 진흥에 중점을 두는 미국 방식을 따라가는 투 트랙 전략을 짜야 한다"며 "유럽식 규제에 맞춰 입법을 추진하는 우를 범해선 안 된다"고 강조했다. 모든 EU 회원국이 AI법을 긍정적으로 보는 것도 아니다. 최근 프랑스와 독일 정부는 생성형 AI 규제 방안에 우려를 표명한 바 있다. 해당 법안이 프랑스의 미스트랄AI와 독일의 알레프 알파와 같은 유럽 스타트업에 오히려 피해를 줄 것이라는 이유에서다. 현재 두 기업은 미국 빅테크들로부터 투자받으며 유럽 내에서 주목받고 있다. 유럽 시민단체도 AI법 조항을 지적했다. 기업유럽관측소(CEO) 등 시민단체는 "현재 생성형 AI 기업은 규제를 면제받은 것과 다름없다"며 "몇가지 투명성 의무만 준수하면 되는 정도"라고 지적했다. 이들은 생성형 AI 기업들이 현 AI법망을 피해 더 광범위한 작업을 수행할 수 있을 것으로 봤다. AI 관련 법안을 주도적으로 발의한 의원 중 한명인 드라고스 투도라쉬 의원은 "이번 AI법은 여정의 끝이 아니라 새로운 거버넌스 모델을 위한 출발점이다"며 "AI법이 현실화하는데 정치적 에너지를 집중해야 한다"고 밝혔다.

2024.03.14 16:41김미정

"생성형 AI, 법률 핵심 업무에 서툴러…AI 산업 키우는 정책 우선 필요"

"생성형 인공지능(AI)이 법조계에 스며들면 편리한 점은 분명히 있습니다. 다만 증거 가치와 사실 관계를 판단하는 업무를 사람보다 잘 하진 못합니다. 이에 필요한 학습데이터 확보도 어렵습니다. 이를 극복하려면 AI 결과물에 대한 신뢰성 평가가 필요합니다. AI 기술 정확성에 대한 평가나 설명을 할 수 있는 추가 기술을 적용해야 합니다." 법무법인 원 오정익 변호사는 26일 지디넷코리아와의 인터뷰에서 "생성형 AI가 법률 분야에 완전히 스며들기 위해선 넘어야 할 산이 많다"며 이같이 밝혔다. 이는 법률 업무에 생성형 AI를 적용하면 업무 생산성을 어느 정도 높일 수 있지만, 현재 AI 기술 수준으로는 큰 영향을 미치지 못한다는 의미다. 이를 도울 수 있는 정부의 AI 산업 육성 정책도 필요하다고 덧붙였다. 오정익 변호사는 법무법인 원 AI대응팀에서 일하고 있다. 그는 주로 AI 학습데이터 확보 과정서 발생할 수 있는 개인정보보호법을 비롯한 저작권법 위반 이슈, AI 헬스케어 관련 의료법 위반 이슈 등에 대한 자문을 진행해 왔다. "생성형 AI, 증거 가치 판단·사실 관계 확정 못해" 오정익 변호사는 생성형 AI 기술이 법률 업무를 어느 정도 보조한다는 입장이다. 특히 판례 검색과 법률 문서 요약에 생성형 AI 기술이 유용할 것이라고 내다봤다. 다만 이 이상으로 AI 기술이 법률 업무를 도우려면 여러 이슈를 해결해야 한다는 입장이다. 오 변호사는 "현재 수준의 AI 기술은 법률 업무 생산성에 획기적인 변화를 불러올 정도는 아니다"며 "법률 업무 핵심인 증거 가치 판단과 사실 관계 확정을 생성형 AI로 대체하기 어렵다"고 설명했다. 변호사들은 재판 전 법률 업무에 필요한 증거를 수집해 관계를 분석한다. 그 후 해당 관계가 얼마나 가치 있는 증거인지 판단한 뒤 이를 서면에 녹여낸다. 서면 작성 시 어휘 선택과 어조를 조절하는 작업에도 꽤 많은 시간을 소비한다. 일반적으로 두 업무가 재판 준비 시 시간과 공이 가장 많이 들어간다. 오정익 변호사는 "해당 업무는 인간 법조인의 핵심 역할"이라며 "이를 AI 기술에 맡기는 건 아직 무리"라고 말했다. 생성형 AI가 인간 법조인처럼 증거 가치를 판단, 평가하기엔 기술적으로 역부족이라는 의미다. AI에 증거 가치를 판단할 수 있도록 기준을 제시하는 것도 어려운 실정이다. 오정익 변호사는 생성형 AI가 해당 기능을 수행할 수 있어도 문제라는 입장이다. 그는 "AI를 가르치는 데 필요한 학습데이터 확보도 어려운 상황"이라며 "비즈니스 목적으로 자료가 활용될 수 있을까에 대한 의문점이 있다"고 말했다. 그러면서 "일각에선 당장 법률 업무 효율을 30%까지 높인다는 목소리가 나오고 있는데, 현실적으론 어렵다"고 덧붙였다. "AI 신뢰성 평가 기술 필수...정부, AI 산업 육성 정책 꾸준해야" 오정익 변호사는 AI 기술이 활용되기 위해선 뚜렷한 검증을 거친 AI 모델 신뢰성 평가를 필수로 둬야 한다고 했다. 법률 분야에 활용되는 AI의 오류를 짚어주고, 정확한 법률 평가나 설명을 할 수 있는 기술 개발이 추가로 필요하다는 말이다. 그는 "법률 분야는 권리의무 등 중대한 사항을 다루는 분야"라며 "판단이 잘못되면 상당한 위험성을 내포하고 있다"고 기술 필요성에 대한 이유를 밝혔다. 이와 관련해 오 변호사는 영국과 캐나다 AI 법안에 관해 설명했다. 최근 캐나다와 영국은 법원에서 AI 불완전성으로 인한 위험 발생을 막기 위해 준수할 사항을 정한 지침을 마련하기 시작한 바 있다. 오 변호사는 국내 AI 법안에 대한 의견도 알렸다. 현재까지 AI 기본법 관련해 국회에 10개 넘는 법안이 발의된 상태다. AI 기본법안은 지난해 소원위회 대안 의결 통과됐다. 그러나 4월 총선을 앞둔 현재까지 확정된 대안조차 마련되지 못한 상황이다. 오 변호사는 "AI에 대한 구체적인 법안보단 산업 육성을 위한 정책부터 적극적으로 추진해야 한다"며 "이와 더불어 EU의 AI법을 비롯한 미국, 캐나다, 영국 등의 입법 상황을 보면서 AI 법안을 신중히 추진해야 한다"고 강조했다.

2024.02.26 16:13김미정

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

"요금 올리거나, 무료 풀거나"…OTT, 전략 분화

"책 대신 '아이패드'로 수업을"…디지털이 바꾼 교실 풍경은

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

[ZD브리핑] 아시아 IT 박람회 컴퓨텍스 개최...21대 대선 후보 첫 토론회

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현