• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 법무'통합검색 결과 입니다. (36건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI 규제 시대 본격화…태평양, TMT그룹으로 판 키운다

급변하는 정보통신기술(ICT) 산업 환경에서 인공지능(AI), 플랫폼 규제, 개인정보보호, 디지털금융, 가상자산, 사이버보안 등 복합적인 법률·규제 이슈가 동시에 확산되고 있는 가운데 법무법인 태평양(BKL)이 조직 개편을 통해 기업 수요 공략에 나선다. 태평양은 기존 TMT 팀을 'TMT 그룹'으로 확대 개편한다고 30일 밝혔다. 최근 ICT 산업이 복합 규제 환경으로 빠르게 전환되면서 각 사건에 대해 정책 변화, 기술 구조, 시장 전략 등을 각각 따로 자문하지 않고 하나의 의사결정을 중심으로 하는 원스톱 통합 대응 체계를 구축하는 것이 필요하다고 판단해서다. TMT(Technology∙Media∙Telecommunication) 팀은 1980년대 후반 태평양이 국내 로펌 최초로 신설한 전담 조직으로, 그간 ICT 분야 규제 대응의 '퍼스트 무버(First Mover)'로서 시장을 선도해 왔다. 또 2000년대 융·복합 산업의 확산과 함께 국회, 행정부, 지방자치단체를 아우르는 규제 대응 역량을 입증했다. 더불어 과학기술정보통신부, 방송미디어통신위원회, 개인정보위원회 등 주요 규제기관과의 면밀한 협의를 통해 조사 및 규제 대응 사건에서 최선의 결과를 이끌어 내는 등 국내 최고 수준의 전문성을 인정받아 왔다. 특히 태평양은 국내 주요 이동통신사와 방송사뿐만 아니라 네이버, 카카오, 쿠팡 등 빅테크 기업을 밀착 대리하며 국내 ICT 산업의 기틀을 마련해 왔다. 또 메타, 바이트댄스(틱톡), 넷플릭스 등 글로벌 온라인 플랫폼을 비롯해 퀄컴, 알리익스프레스, 화웨이 등 전 세계 ICT 시장을 주도하는 주요 글로벌 기업들을 대리하며 고난도의 사건들을 성공적으로 수행했다. 이 같은 경험을 바탕으로 태평양은 TMT 그룹을 통해 기업이 직면한 규제 리스크를 사후적으로 대응하는데 그치지 않고 사업 전략 단계부터 법률∙정책∙제도∙비즈니스를 동시에 설계하는 '전략적 파트너' 역할을 수행한다는 방침이다. 또 그룹장은 박지연 변호사(사법연수원 31기)가 맡아 AI, 방송·통신, 개인정보, 게임, 디지털금융, 블록체인 등 각 영역에서 풍부한 경험과 전문성을 갖춘 박종백(18기), 류광현(23기), 김영수(29기), 강태욱(31기), 이정명(34기), 윤주호(35기), 정상훈(35기), 이수화(변시1회), 이강혜(변시2회), 이준호(변시5회), 오세인(변시5회), 박주성(변시5회) 변호사 등과 함께 업무를 수행하게 된다. 여기에 글로벌 빅테크 기업 자문 경험을 바탕으로 국제 감각을 갖춘 손지영 외국변호사와 정호영 외국변호사도 참여한다.특히 박 변호사는 '2026 챔버스(Chambers Asia-Pacific) TMT 분야 리딩로이어'와 '2025 ALB(Asian Legal Business) 아시아 TMT 우수 변호사 50인'에 선정된 ICT 분야의 대표적인 전문가란 점에서 높은 관심을 받고 있다. 또 TMT 그룹에는 과학기술정보통신부 차관을 역임한 조경식 고문과 과학기술정보통신부 지식재산전략기획단장을 지낸 정완용 고문, 정보통신산업진흥원장 출신 허성욱 고문, 방송미디어통신위원회 출신 황선철 고문, 과학기술정보통신부 출신 조현진 전문위원, 정보통신정책연구원 출신 김득원 전문위원, 금융감독원을 거쳐 빗썸 부사장을 지낸 최희경 전문위원, 한국인터넷진흥원 출신 여돈구 전문위원 등도 함께 참여해 정책·제도 변화에 대한 입체적인 분석과 전략적 자문을 제공한다.이 외에도 태평양은 TMT그룹의 전문성 강화를 위해 디지털금융, 가상자산을 전담하는 '디지털자산TF'와 갈수록 고도화되는 해킹∙정보유출 등 사이버 보안 리스크에 대응하는 '사이버침해 대응센터'도 조직했다. 이를 통해 여러 이슈가 결합된 복합 위기 상황에서도 신속하고 일원화된 대응이 가능하도록 통합 대응 체계를 갖췄다.박지연 태평양 TMT그룹장은 "ICT 산업은 기술 변화 속도만큼 규제 환경도 빠르게 진화하고 있다"며 "태평양 TMT그룹은 사건 대응에 그치지 않고 정책 방향과 시장 구조까지 함께 분석해 기업의 사업 전략 단계부터 리스크를 설계하는 파트너가 되겠다"고 말했다. 이어 "AI 시대의 복합 규제 환경 속에서 기업이 신뢰할 수 있는 'ICT 종합 컨설팅 허브'로서 역할을 강화해 나가겠다"고 덧붙였다.

2026.01.30 10:34장유미 기자

[기고] 인공지능을 규율한다는 것의 의미

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 새로운 기술을 다루는 법은 언제나 늦거나 빠르다. 너무 늦으면 이미 현실을 따라잡지 못하고, 너무 빠르면 아직 정의되지 않은 위험을 과도하게 상정하게 된다. 인공지능(AI)을 둘러싼 최근 제도 설계 역시 이 오래된 딜레마 위에 놓여 있다. 현재 작동 중인 AI 관련 기본 규범은 즉각적인 통제를 목표로 하기보다 일정 기간 제도의 작동 가능성을 점검하는 방식을 선택했다. 이는 단순한 행정 편의나 정치적 타협 결과로 보기 어렵다. 오히려 기술 특성을 전제로 한 선택에 가깝다. AI는 고정된 제품이 아니라 학습과 적용을 통해 끊임없이 성격이 변하는 체계라서다. 이런 기술을 전통적인 규제 방식으로 포섭하면 규범은 곧바로 현실과 어긋날 위험을 안게 된다. 무엇이 위험한지, 누가 책임을 져야 하는지, 어느 단계에서 개입해야 하는지에 대한 사회적 합의가 아직 충분히 축적되지 않은 상태에서 강한 집행을 전제로 한 규칙을 설계하는 것은 오히려 혼란을 키울 수 있다. 문제는 이 과도기가 '아무 일도 하지 않는 시간'으로 오해될 가능성이다. 실제 현장에서는 제도가 존재함에도 불구하고, 무엇을 기준으로 준비해야 하는지 판단하지 못하는 경우가 적지 않다. 이는 규범이 추구하는 방향이 불분명해서라기보다 추상적 원칙이 실무 언어로 충분히 전환되지 않은 탓이다. 법은 가치와 방향을 제시할 수 있지만 개별 서비스의 구조까지 설명해 주지는 않는다. 예컨대 위험을 어떻게 평가할 것인지, 자동화된 판단 과정에서 인간의 개입은 어느 수준까지 요구되는지, 이용자에 대한 설명은 어떤 방식으로 이행돼야 하는지와 같은 문제는 법 조문만으로 해결되기 어렵다. 결국 해석과 적용의 영역이 필연적으로 발생한다. 이 지점에서 중요한 것은 처벌 가능성이 아니라 판단 예측 가능성이다. 기업이나 개발 주체가 가장 어려움을 느끼는 것은 규제가 존재한다는 사실 그 자체가 아니다. 어디까지가 허용되고 어디부터가 문제 되는지 가늠하기 어렵다는 데 있다. 기준이 명확하지 않으면 혁신은 위축되거나 반대로 무책임하게 확장된다. 현재 제도 운용 국면은 규칙을 집행하는 단계라기보다 규칙이 실제 작동할 수 있게 다듬는 과정으로 이해하는 편이 타당하다. 행정 해석, 사례 축적, 산업계와의 상호작용을 통해 원칙이 구체화되지 않으면 이후 강한 집행은 정당성을 확보하기 어렵다. 동시에 이 시기는 기업 내부 준비가 요구되는 시점이기도 하다. 외부 강제력이 약하다고 해서 책임까지 유예되는 것은 아니다. 데이터 출처와 관리 방식, 알고리즘 검증 절차, 결과에 대한 설명 가능성 등은 사후 대응이 아니라 사전 설계 문제다. 이런 점검은 규제를 피하기 위한 방어 수단이 아니라, 기술에 대한 신뢰를 확보하기 위한 최소 조건에 가깝다. 종종 규범은 혁신 반대편에 서 있는 것으로 인식된다. 그러나 명확한 기준이 없는 환경이 반드시 자유로운 환경을 의미하지는 않는다. 오히려 불확실성이 클수록 의사결정 비용은 증가하고 책임은 개인에게 과도하게 전가된다. 합리적인 규칙은 위험을 줄이는 동시에 기술이 사회 안에서 수용될 수 있는 경로를 마련한다. AI를 둘러싼 제도는 지금 질문을 던지고 있다. 얼마나 빨리 통제할 것인가가 아닌, 어떤 방식으로 책임을 배분할 것인가에 대한 질문이다. 기술 속도를 억제하는 것이 목적이 아니라 그 속도가 사회적 신뢰와 충돌하지 않도록 조정하는 것이 핵심이다. 이 과정을 통해 마련된 기준은 향후 집행의 출발점이 될 것이다. 그 기준이 경직된 잣대가 될지, 합리적인 신호가 될지는 지금의 제도 운용과 준비에 달렸다. AI를 다룬다는 것은 결국 기술을 규율하는 일이 아니라 기술을 사용하는 우리의 방식을 설계하는 일이기 때문이다.

2026.01.29 16:19정상훈 컬럼니스트

[AI기본법 시행①] 韓, '세계 최초' 타이틀…"해외 기업과 역차별 없어야"

한국 정부가 전 세계 처음으로 인공지능(AI)기본법 시행을 앞두면서 업계 안팎에서 기대와 우려가 동시에 나오고 있다. 제도가 비교적 무리 없이 안착할 것이라는 전망과 급속한 AI 기술 발전 속도에 맞춰 충분한 준비가 이뤄졌는지를 두고 엇갈린 평가가 공존하고 있다. 19일 과학기술정보통신부에 따르면 AI기본법은 2024년 12월 26일 국회 본회의를 통과한 뒤 지난해 1월 21일 공포됐다. 법 시행 시점은 공포 후 1년이 지난 이달 22일로 예정됐다. 전문가들 사이에서는 AI기본법이 단순 규제를 넘어 국내 기업이 해외 시장으로 확장하는 과정에서 신뢰 표준이 될 수 있다는 점을 높게 평가하고 있다. 글로벌 규제 환경 속에서 일정한 법적 틀을 갖추는 것이 오히려 산업 경쟁력에 도움이 될 수 있다는 입장이다. 일각에서는 유럽연합(EU)이나 미국과 달리 한국이 AI기본법 조기 시행을 선택한 배경에 우려를 표하고 있다. 준비 기간이 EU에 비해 지나치게 짧다는 지적이 잇따르고 있어서다. 실제 EU는 한국보다 법 제정 논의를 먼저 시작했지만, 실제 적용 시점은 내년 8월이다. EU집행위원회는 지난달 규제 부담을 완화하는 내용을 담은 '디지털 간소화' 방안도 내놨다. 특히 유럽에선 과도한 규제가 AI 산업 경쟁력을 약화할 수 있다는 우려가 지속적으로 나왔다. 특히 미국 빅테크 기업들이 규제 완화를 요구해 온 점도 EU 정책 기조 변화에 영향을 미쳤다는 분석이 나온다. 이런 흐름 속에서 정부가 '세계 최초 AI법'이라는 타이틀에 지나치게 집중한 나머지 현실을 충분히 반영하지 못한 채 법을 서둘러 추진한 것 아니냐는 우려가 나온 것이다. 법무법인 원 오정익 변호사는 AI기본법이 이미 통과돼 시행을 앞둔 만큼 이를 부정적으로만 평가하기는 어렵다고 밝혔다. 그는 "AI기본법은 처벌·제한뿐 아니라 일정한 기준점을 제시하는 역할을 할 것"이라며 "법이 산업에 미치는 영향을 복합적으로 봐야 한다"고 주장했다. 이어 "법 시행 이후가 더 중요하다"며 "신속한 개정과 조정, 보완이 상시적으로 이뤄질 수 있어야 한다"고 강조했다. 그러면서 "기존 법제처럼 경직된 운영이 아니라 기술 변화 속도에 맞춘 유연한 제도 운용이 중요할 것"이라고 내다봤다. AI기본법, 해외 기업에 무용지물?…"역차별 없어야" 현재 국내 업계에선 AI기본법이 한국 시장 진출한 해외 기업에는 무용지물일 수 있다는 우려가 나오고 있다. 국내 기업은 법을 어기면 AI기본법에 따라 처벌받지만 외국 AI 기업에 국내법을 바로 적용하기 어려울 수 있다는 이유에서다. 법무법인 태평양 강정희 변호사는 AI기본법에 일정 요건을 충족하는 해외 AI 기업에도 국내 대리인 지정 의무를 부과한 점에 주목했다. 강 변호사는 "규제 대상을 국내 기업에 한정하지 않고 역외 사업자까지 포함할 수 있는 집행 기반을 마련했다는 점에서 긍정적으로 본다"고 밝혔다. 이어 "해외 기업도 한국에서 고영향 AI와 고성능 AI에 대한 위험을 관리할 수 있도록 위험 식별·완화, 위험관리체계구축 등 거버넌스 의무까지 부과한 점도 지켜봐야 한다"며 "국내외 기업 관계없이 AI 위험을 관리하는 구조를 제도화했다는 점에서 규제 질적 전환으로 볼 수 있다"고 말했다. 국내 업계에서는 해외 AI 기업이 국내에 대리인을 지정해도 역차별은 발생할 수 있다고 우려하고 있다. 익명을 요청한 한 국내 AI 업계 관계자는 "해외 기업서 지정된 국내 대리인이 실무 관계자가 아니면 말이 다르다"며 "해당 기업 서비스나 보안상 문제가 발생할 경우 우리 정부가 대리인에 책임을 묻기도 곤란할 것"이라고 지적했다. 이어 "특히 빅테크 솔루션에 동시다발적 오류가 국내외서 발생할 경우, 이는 국내 AI법만으로 보상을 요구할 수도 없는 상황"이라고 말했다. 그러면서 "국내 기업이 AI 제품 개발·출시 과정에서 과도한 규제로 인해 역차별받아선 안 될 것"이라고 재차 당부했다. 오정익 변호사는 AI기본법 의무 부담을 기업에게만 넘기는 방식은 지양해야 한다고 주장했다. 오 변호사는 "국내외 기업 넘어서 국가 자체가 의무를 수행하는 방법도 효율적이다"고 설명했다. 그러면서 "AI 시대에 국가가 자국 기업이 글로벌 AI 생태계에서 기술을 잘 구현할 수 있도록 보조하는 방식으로 가야 한다"고 덧붙였다. "AI기본법 대응 출발점은 '고영향 AI 판단'" AI기본법을 앞두고 국내 업계도 철저한 준비가 필요하다는 의견이 이어졌다. 특히 AI기본법이 강조하는 고영향 AI나 일정 규모 이상 AI 시스템이 이에 해당하는지 확인부터 해야 한다는 설명이다. 전문가들은 물리·현실적 영역에 직접 영향을 미치는 AI 제품과 서비스가 늘고 있다는 점을 중요 변수로 꼽았다. 오정익 변호사는 "AI 시스템이 핵심 기능을 수행하는 제품과 로봇, 서비스가 늘고 있다"며 "기존 챗봇 중심 AI 활용과는 전혀 다른 국면에 접어들었다"고 진단했다. 이어 "AI 안전성과 신뢰성이 산업 전반 핵심 요건으로 부상한 이유"라며 "AI기본법이 강조하는 안정성·신뢰성·투명성 원칙을 최우선 기준으로 삼아야 한다"고 분석했다. 그러면서 "기업은 솔루션이 고영향 AI나 일정 규모 이상의 AI 시스템에 해당하는지 여부를 우선 봐야 한다"며 "이에 해당할 경우 위험관리 체계와 이용자 보호 조치가 법 기준에 부합하는지까지 점검해야 한다"고 설명했다. 오 변호사는 특히 공공기관을 고객으로 둔 기업은 영향평가 준비 여부를 반드시 신경써야 한다고 당부했다. 그는 "시행령과 가이드라인에서 제시하는 방식에 맞게 고지·표시가 이뤄지고 있는지도 점검해야 한다"며 "향후 사업 운영 과정에서 발생할 수 있는 법적 리스크를 선제적으로 관리할 수 있는 방법"이라고 강조했다. 강정희 변호사 역시 AI기본법을 일회성 요건 충족이 아닌 주기적 점검과 개선을 전제로 한 시스템으로 봐야 한다고 주장했다. 강 변호사는 "국내 산업계는 고영향 AI 판단 체크리스트와 내부 가이드라인을 통해 투명성 의무 적용 여부와 예외 해당 여부를 우선 점검해야 한다"며 "의무 대상에 해당할 경우 이를 이행할 수 있는 내부 시스템을 갖추는 것이 필요하다"고 짚었다. 강 변호사는 에너지·보건의료·채용·대출 심사 등 고영향 AI 적용 가능성이 높은 분야 기업은 자체 AI가 생명·안전·권리에 영향을 미치는지 여부를 판단할 수 있는 내부 분류 체계를 마련해야 한다고 권장했다. 강 변호사는 "시스템이 고영향 AI로 분류될 경우 위험 식별·관리 체계, 이용자 보호 방안, 문서 작성과 보관을 포함한 운영·관리·감독 체계를 선제적으로 정비해야 한다"고 말했다.

2026.01.19 16:53김미정 기자

[기고] 눈 앞에 다가온 AI기본법, G3 향한 이정표가 되기를

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 기본법이 2026년 1월 22일 시행을 앞두고 있다. AI 산업 육성과 안전성 확보라는 두 마리 토끼를 잡겠다는 목표를 가지고 21대 국회에서부터 시작된 논의가 22대 국회에서 그 성과를 거둔 이후, 이제 그 시행을 앞두고 있다. 글로벌 AI 패권 경쟁이 국가 대항전 양상으로 치닫는 현시점에서 이번 법 시행이 단순히 대한민국이 AI 사용량에서 1위를 달리는 국가가 아니라 AI 산업을 주도하는 국가로 나아가기 위한 하나의 이정표가 되기를 간절히 바란다. 이번 AI 기본법 시행의 가장 큰 의미는 AI 산업 육성을 위한 법적 근거가 만들어졌다는 점과 AI 산업 규제에 대한 예측가능성이 부여됐다는 점이다. 법적인 관점에서 보면, 산업지원의 경우에는 예산만 확보됐다면 그 근거 법률이 필요하지 않다고 볼 수 있지만, 산업 육성책을 체계적으로 가져갈 수 있는 밑그림인 법률이 있다는 것은 큰 의미를 갖는다. 이런 점에서 AI기본법은 AI 산업 진흥에 있어서 큰 획을 그은 것으로 볼 수 있다. AI 산업이 본 궤도를 타지 않은 시점에 AI 산업에 대한 규제는 시기상조라는 논리도 있다. 주위를 둘러보면 너도나도 AI 서비스를 이용하고 있는 지금 시점에 규제의 틀거리를 마련해 시행하는 건 필연이라고 생각된다. 이제 명확한 법적 근거가 마련됨에 따라 기업들은 고영향 AI 등에 관해 필요한 조치를 취하고, 법적 안정성에 근거해 오히려 과감한 투자를 단행할 수 있는 토대가 마련됐다고 보는 게 보다 합리적이다. 이번 AI 기본법 시행을 계기로 개별 기업들에게 예측가능성이라는 토대가 마련됐다는 것 이외에 기업 입장에서 AI 기본법에 따른 컴플라이언스 체계를 구축하여, 우리가 제공하는 AI는 신뢰할 수 있는 기술이라는 슬로건을 가져갈 수 있는 기회가 될 것으로 보인다. 기술 경쟁력을 넘어서 윤리적인, 신뢰할 수 있는 AI 서비스를 찾는 이용자 관점을 반영해 AI 산업 주도권을 갖기 위한 노력이 필요하다. 법 시행은 완성이 아닌 '균형'을 잡기 위한 긴 여정의 시작이 될 것이다. 규제 무게가 AI 산업의 혁신 또는 성장을 억누르면 안 된다는 것은 너무나 당연한 말이다. 누군가 AI 기술의 10년 후를 물었더니, AI 전문가가 1년 뒤도 예측하기 어려운데 10년 뒤를 예측하는 건 불가능하다고 답했다고 하는 것처럼, 현재 AI 기술은 하루가 다르게 발전하고 있다. 따라서 현재의 AI 기본법 규제 체계가 완성됐다는 것보다는 발전하는 AI 현실을 받아들여 AI 산업계와 영향받는 자인 국민의 목소리를 반영한 유연한 사고가 필요한 게 현실이다. 결국 AI 기본법 시행이라는 큰 산을 넘었지만, 이후 AI 기본법이 얼마나 잘 작동해 AI 산업을 진흥시키고, 예측가능성에 따라 신뢰할 수 있는 AI 서비스를 제공할 수 있는지 여부는 정부와 현장 간 호흡에 달렸다. 정부는 법 시행 초기 발생할 수 있는 현장의 혼선을 최소화하기 위해 과학기술정보통신부 중심으로 명확한 가이드라인을 지속적으로 제공해야 하고, 이미 추진하기로 한 과태료 시행 유보 등 과감한 제도 안착을 위해 노력해야 할 것이다. 2026년은 대한민국 AI 산업의 '대항해 시대'가 열리는 원년이다. 그 과정에 AI기본법이 본래 달성하려고 한 목표를 이루고 AI 산업 진흥에 이정표가 되길 바란다.

2026.01.19 05:00윤주호 컬럼니스트

BHSN-율촌, 폐쇄형 법률 AI '아이율' 개발…"업무·보안 잡았다"

BHSN이 대형 로펌 환경에 특화된 인공지능(AI) 서비스를 개발해 법률 업무 환경을 개선했다. BHSN은 법무법인 율촌 손잡고 지능형 리걸 AI 서비스 '아이율'을 출시했다고 12일 밝혔다. 아이율은 BHSN 법률 특화 멀티 거대언어모델(LLM) 플랫폼 '앨리비 아스트로'로 작동한다. 로펌 실무 환경에 맞게 구현된 AI 검색·분석 시스템이다. 율촌은 지난해 12월 말부터 아이율을 실제 업무에 적용하고 있다. 해당 서비스는 외부로 데이터가 나가지 않는 폐쇄형 검색증강생성(RAG) 구조로 설계됐다. 이에 로펌과 고객 정보가 외부 AI 학습에 활용되지 않는다. 율촌의 기존 권한 체계와 연동돼 사용자 권한에 맞는 분석 결과만 제공하고 보안 자료는 분석 대상에서 제외한다. 아이율은 기존 지식 관리 시스템 내 법률 자료를 AI로 분석해 근거 자료를 제시한다. 이를 통해 자료 탐색과 검증 과정 속도, 정확도를 동시에 높일 수 있다. BHSN 리걸 AI 솔루션 앨리비는 현재 CJ제일제당과 한화솔루션, 애경케미칼 등 기업 계약과 법무, 컴플라이언스 업무에 쓰이고 있다. 삼성생명과는 금융권 위험관리와 내부통제 요건을 충족하는 금융 컴플라이언스 AI 적용도 진행 중이다. BHSN은 현장 적용 경험을 바탕으로 산업별 특성과 규제 환경을 반영한 전문 인공지능 플랫폼으로 앨리비를 확장할 계획이다. 이달 중 개인 변호사 대상으로 서비스형 소프트웨어(SaaS) 리걸 AI도 출시한다. 임정근 BHSN 대표는 "이번 협업은 아스트로가 대형 로펌 보안 기준과 전문가적 사고 체계를 동시에 충족할 수 있음을 증명한 이정표"라며 "워크플로 기반 생성 기능이 탑재된 앨리비 신규 버전을 통해 리걸 AI 업무 범위를 넓히겠다"고 말했다. 강석훈 법무법인 율촌 대표 변호사는 "우리 전문성과 고객 정보 보호를 최우선으로 하는 가치가 B HSN 기술력과 결합했다"며 "법률 업무 환경에서 의미 있는 변화를 만들어갈 것"이라고 밝혔다.

2026.01.12 15:37김미정 기자

BHSN-법무법인 율촌, 리걸 AI '아이율' 구축 완료...실무 적용 시작

비에이치에스엔(대표 임정근, 이하 BHSN)이 로펌 법무법인 율촌과 함께 지능형 리걸 AI 서비스 '아이율' 구축을 완료하고 전사 오픈했다고 12일 밝혔다. 이번 프로젝트는 BHSN의 멀티 LLM 플랫폼인 '앨리비 아스트로' 기술을 율촌의 고난도 법률 실무 환경에 최적화해 구현한 사례다. 양사는 지난 12월 말 서비스 오픈 이후 현재 시스템 안정화 단계를 거치며 고도화된 AI 기술의 실무 적용을 본격화하고 있다. 특히 아이율은 대형 로펌의 엄격한 보안 요구사항과 접근 통제 요건을 충족하기 위해 '폐쇄형 검색 증강 생성(RAG)' 아키텍처를 채택했다. 이는 외부로 데이터가 전송되지 않는 독립된 환경 내에서 AI가 내부의 지식 자산을 정밀하게 탐색하고 분석해 답변을 생성하는 방식이다. 모든 질의 및 대화 과정은 AI 학습에 일절 활용되지 않아 고객 정보 보안과 신뢰를 철저히 보장한다. 또 율촌의 기존 권한 체계와 유기적으로 연동돼 사용자 권한별로 최적화된 AI분석 결과를 제공하며, 보안자료는 분석 대상에서 철저히 제외하는 등 최고 수준의 데이터 거버넌스를 구현했다. 본 서비스는 변호사들의 실무를 지원하는 지능형 지식 탐색 파트너다. 단순한 정보 검색을 넘어 기존 지식 관리(KM) 시스템 내의 방대한 법률자료들을 AI가 맥락적으로 이해하고 분석해 제시한다. 변호사가 직접 정보를 탐색하고 검증하는 과정에서 AI가 최적의 근거 자료를 신속하게 도출함으로써 업무의 정확도를 획기적으로 높이는 역할을 수행한다. 율촌은 최근 사내 명칭 공모를 통해 서비스명을 '아이율'로 확정하고 종무식에서 명칭 공모 시상을 진행하는 등 구성원들의 높은 관심과 기대 속에 서비스 운영을 시작했다. 아이율은 법무법인 율촌의 업무 환경과 보안 요구에 맞춰 별도로 설계, 구축된 AI 검색 서비스다. 이런 구조를 구현하기 위해서는 대형 로펌과 그 고객이 요구하는 수준의 데이터 보호, 권한 통제, 비학습 기반 아키텍처를 동시에 충족할 수 있는 기술적 역량이 필요하다. BHSN은 기업과 로펌 환경에서 축적한 리걸 AI 적용 경험을 바탕으로, 이러한 요구를 실제 운영 환경에서 구현할 수 있는 기술 파트너로 참여했다. 임정근 BHSN 대표는 “대한민국 법률 시장의 디지털 혁신을 선도하는 율촌과의 협업은 BHSN의 멀티 LLM 플랫폼 '아스트로'가 대형 로펌의 까다로운 보안 기준과 전문가적 사고 체계를 동시에 충족할 수 있음을 증명한 중요한 이정표”라며 “향후 워크플로우 기반 생성 기능 등이 탑재된 앨리비 신규 버전을 통해 리걸 AI의 실무 활용 범위를 더욱 넓혀가며 법률 전문가들에게 최상의 지능형 업무 환경을 제공할 것”이라고 말했다. 강석훈 법무법인 율촌 대표 변호사는 “법률 시장의 환경이 급변함에 따라 변호사가 본질적인 역량에 집중할 수 있는 시스템 구축이 중요해졌다”며 "업계를 선도해 온 율촌의 전문성과 고객 정보 보호를 최우선으로 하는 가치가 BHSN의 기술력과 결합해, 법률 업무 환경에서 의미 있는 변화를 만들어갈 것으로 기대한다"고 밝혔다.

2026.01.12 09:46백봉삼 기자

래티스 "통합 계약 거버넌스 솔루션 '프릭스' 고도화"

래티스(대표 강상원)는 법무팀이 전사 계약을 통제·관리할 수 있도록 설계된 통합 계약 거버넌스 솔루션 '프릭스'를 고도화하고 있다고 8일 밝혔다. 프릭스는 초기 설계 단계부터 데이터 통제력과 가시성 확보에 집중해 왔다. 최근 대형 고객사의 엄격한 보안 기준과 관리 체계를 완벽히 수용하며 시스템 완성도를 한층 높였다. 특히 법무팀 실무진이 현장에서 필수로 요구하는 핵심 기능들을 단일 플랫폼에 완결성 있게 통합한 점이 특징이다. 주요 기능은 ▲부서와 직무에 따른 '계약서별 권한 부여' ▲담당자 교체 시에도 계약 맥락 파악이 가능한 '담당자 히스토리 관리' ▲별도 기록 없이 계약서와 함께 보존되는 '계약서 협의 내용 메모' ▲AI가 계약서의 내용을 추출하여 제공하는 '계약서 필드 추출' 기능 등이다. 향후 AI 기능을 고도화해 AI 기반의 계약서 리스크 분석, 수정 제안 등을 포괄하는 AI Agent 기능을 선보일 예정이다. 그간 대기업과 중견기업 법무팀은 계약서를 계약관리 대장(엑셀) 작성 후 드라이브에 업로드하는 방식에 의존해 왔다. 이로 인해 발생하는 업로드 누락, 퇴사자 발생 시 인수인계 어려움, 보안 취약성 등은 법무팀의 고질적인 리스크였다. 프릭스는 이런 관리 사각지대를 시스템으로 해결함으로써 별도의 전사적자원관리(ERP) 연동 없이도 서비스 내에서 법무 검토부터 내부 결재까지 직접 처리할 수 있는 통합형 환경을 제공해 행정 부담을 크게 낮췄다. 이런 기능적 완결성은 지표 성장으로 이어지고 있다. 프릭스는 작년 9월 말일 기준 누적 계약서 수 10만 개를 돌파했다. 재무적으로도 지난해 기준 전년도 대비 연간반복매출(ARR)이 약 60% 증가했다. 이는 내부회계관리제도(K-SOX) 강화에 따라 실질적인 거버넌스 시스템을 찾는 상장사 및 중견기업들의 수요가 프릭스의 실무 중심 기능과 맞물린 결과로 풀이된다. 래티스는 클라우드 기반 솔루션뿐 아니라, 보안이 엄격한 대기업을 위한 망분리 환경에서의 서버 구축 및 프로젝트 수행 경험까지 갖추며 고객군을 다변화하고 있다. 강상원 래티스 대표는 "프릭스가 제시하는 계약 관리의 방향성이 이제 시장의 표준 모델로 자리 잡고 있다"며 "대기업향 솔루션 구축 과정에서 얻은 고도의 보안 기술력과 운영 노하우를 바탕으로 국내외 기업들의 계약 거버넌스 수준을 한 단계 끌어올리는 신뢰받는 파트너가 되겠다"고 밝혔다.

2026.01.08 15:43백봉삼 기자

[기고] 금융 AI 가이드라인 개정이 보여주는 새 규제 방향

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)은 이미 금융산업 보조 기술을 넘어 핵심 인프라로 자리 잡고 있다. 신용평가를 비롯한 이상거래 탐지, 사기 적발, 자금세탁 방지 등 본질적 금융 기능 상당 부분이 AI 기반으로 재편되고 있다. 최근 금융위원회가 "AI는 금융의 본질적 역할에 기여할 수 있다"고 강조한 배경 역시 여기에 있다. 그동안 AI 규제 논의는 주로 위험 통제에 초점이 맞춰져 왔다. 그러다 보니 현장에서는 명성, 차별 방지, 위험평가를 통한 안전성 확보와 같은 사항들이 실제 운영 단계에서 어떻게 구현돼야 하는지에 대한 혼란이 있었다. 금융권에서는 기존 규제와 더불어 그 부담감이 상당했던 것도 사실이다. 이번 가이드라인(안)은 거버넌스, 데이터 관리, 모델 검증, 보안, 책임 구조 등 AI 전 주기를 포괄하는 원칙 중심 기준을 제시하고 있다. 이는 금융권의 AI 활용을 제한하기보다는 신뢰 가능한 방식으로 운영하기 위한 기준을 보다 명확히 했다는 점에서 위와 같은 간극을 메우려는 시도로 해석된다. 이런 접근은 기업 실무 관점에서도 의미가 크다. 금융회사가 AI를 도입할 때 가장 어려움을 겪는 부분은 기술 자체 적정성 판단이 아니라, 사후 책임과 내부 통제에 대한 불확실성이다. 이번 가이드라인은 AI 도입 여부 또는 활용 방법을 판단하는 기준을 넘어 그 도입 이후 내부 의사결정, 소비자 보호 장치 등 관리·안정적 운영을 위해 기업이 준비해야 할 구체적인 관리 포인트를 비교적 명확히 제시하고 있다. 규제당국의 전향적 접근이 기업 한계를 제한하지 않고 오히려 예측 가능성을 높여 그 발전을 돕고 있는 것이다. 이같은 접근은 한 달 내 시행을 앞둔 AI 기본법과의 관계에서도 시사하는 바가 크다. AI 기본법은 전 산업에 적용되는 반면, 금융 AI 가이드라인은 금융이라는 특정 산업 리스크 구조를 반영한 산업별 운영 기준에 가깝다. 이는 향후 AI 규제가 단일한 법률로 모든 문제를 해결하기보다는 기본법과 산업별 가이드라인이 상호 보완적으로 작동하는 방향으로 정착될 가능성을 보여준다. 금융위원회가 '총력전'을 강조했듯 AI 경쟁력은 알고리즘 성능이나 데이터 규모만으로 결정되지 않는다. AI가 실제 금융 서비스에 적용되는 과정에서 발생할 수 있는 오류, 편향, 책임 문제를 어떻게 관리할 것인지에 대한 제도적 신뢰가 뒷받침되지 않는다면 빠른 도입은 오히려 리스크로 작용할 수 있다. 금융 분야에서 AI의 판단은 곧바로 소비자 보호와 금융시장 안정성으로 이어진다는 점에서 금융산업 특성은 충분히 고려될 필요가 있다. 이번 개정이 초점을 맞춘 운영 중심의 규율은 이러한 문제의식을 구체화한 결과로 볼 수 있다. 물론 원칙 중심의 가이드라인이 실효성을 갖기 위해서는 해석과 적용의 일관성이 중요하다. AI 활용을 위한 탄탄한 거버넌스와 전문인력이 뒷받침되었음은 기본값으로 둔다 하더라도 금융회사마다 AI 활용 수준과 조직 구조가 다른 만큼, 동일한 원칙이 현장에서 다양한 방식으로 구현될 가능성이 높다. 이 과정에서 감독 당국과 업계 간의 지속적인 소통과 사례 축적이 필요하다. 가이드라인이 경직된 규제가 아니라 살아 있는 기준으로 기능하기 위해서는 축적 과정이 필수다. 금융 AI 가이드라인 개정은 한국의 AI 규제 논의가 새 단계로 접어들었음을 시사한다. 이제 중요한 것은 AI를 얼마나 제한할 것인가의 문제가 아니라 AI를 산업 본질에 부합하도록 어떻게 계획하고 운영할 것인가다. 금융 분야에서 시작된 이런 접근은 향후 다른 산업으로도 확산될 가능성이 크다. 이제 기업에게 필요한 것은 규제를 피하는 전략이 아니라 규제를 운영의 언어로 이해하고 선제적으로 설계하는 전략일 것이다.

2026.01.05 07:00이수화 컬럼니스트

[기고] EU 디지털 간소화 방안과 한국 AI 기본법 과제

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 한국은 세계적으로 인공지능(AI) 기술 수용과 활용이 가장 활발한 국가 중 하나다. 오픈AI는 한국의 챗GPT 유료 구독자 수가 미국에 이어 세계 2위를 차지한다고 발표한 바 있다. 그러나 이런 기술 도입 속도에 비해 AI 규제와 제도적 틀 마련은 상대적으로 늦게 시작됐다. 한국은 AI 관련 제도 정비 과정에서 유럽의 강력한 AI 법안(EU AI Act)과 미국의 규제 동향을 면밀히 관찰하며 영향 받았다. 한국의 AI 관련 법령은 개인정보, AI, 플랫폼 규제 등에서 EU 모델을 상당 부분 참조하면서도, 산업 진흥 필요성과의 균형을 추구하는 모델로 평가받고 있다. 올해 1월 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'이 제정돼 내년 1월 시행을 앞뒀다. 현재 시행령과 고시, 가이드라인 등 하위법령 마련 작업이 진행 중이다. 과학기술정보통신부는 지난 9월 8일 하위법령 제정방향을 공개하고 대국민 의견을 수렴한 후, 지난달 12일 시행령 제정안을 입법예고하면서 규제보다는 진흥에 무게를 두고 최소한의 규제체계를 도입하는 데 집중했다고 밝혔다. 국내 하위법령 정비가 이뤄지는 가운데, 지난달 19일 EU 집행위원회가 '디지털 간소화 방안(Digital Package)'을 공식 발표했다. 이 방안은 최근 몇 년간 EU AI 법안, 데이터법, 디지털서비스법(DSA), 디지털시장법(DMA) 등 여러 규제를 연속적으로 도입하면서 발생한 복잡성과 중복규제 문제를 해결하고자 디지털 규제환경을 포괄적으로 개편하는 것이다. 기업의 부담과 법적 불확실성을 줄이고 시장 혁신과 경쟁력을 강화하는 것을 목표로 한다. 주요 내용은 데이터, 사이버보안, AI 규제를 단순화하는 '디지털 옴니버스 규정(Digital Omnibus Regulation)'을 포함한다. 특히 AI 규제 간소화 측면에서 주목할 만한 변화가 있다. EU AI 법안의 원활한 시행을 위해 고위험 AI 규제 적용 시점을 최대 16개월 연기하는 조치가 포함됐다. 예컨대 고용·법 집행 등 민감 분야의 고위험 AI 규정 시행은 2026년 8월에서 2027년 12월로 연기된다. 기술문서 작성 의무 완화 등 기존 중소기업에만 적용되던 완화 조치는 종업원 750명 미만의 중견기업(SMC)까지 확대 적용된다. 기업 내부에서 제한적 용도로 사용하는 AI에 대해서는 EU 데이터베이스 등록 의무를 면제했다. 데이터 측면에서 GDPR 개정을 통해 AI 개발·운영을 위한 개인정보 처리가 '정당한 이익'에 해당한다는 근거를 명시함으로써 AI 모델 학습·운용에 개인정보를 활용할 수 있는 범위를 확대했다. EU의 디지털 간소화 방안은 아직 최종 통과나 확정까지 회원국 간 논의와 유럽의회 승인 절차가 남아있으며, 디지털 기본권 후퇴 가능성이나 빅테크 편향성에 대한 비판도 제기되고 있다. 그럼에도 EU의 규제 정비 방향성은 국내 AI 정책과 하위법령 정비에도 일정한 영향을 미칠 것으로 예상된다. 새 정부가 AI전환(AX)을 통해 AI 3대 강국으로 도약하겠다는 강력한 의지를 밝혔고, 하위법령 정비 방향도 규제보다는 진흥에 무게중심을 둔 상황에서, EU 역시 규제를 간소화하고 산업 진흥과 기본권 보호의 조화를 도모하는 방향으로 무게추를 옮긴 만큼 이런 방향성이 더욱 탄력을 받을 것으로 전망된다. EU AI 법안이 고위험 AI 규정의 적용 시점을 차등 연기한 것은 국내 규제 적용의 범위와 속도를 조절하는 데 참고할 수 있을 것으로 보인다. 또한 규제의 통합절차 간소화 등 '규제효율'을 도모하는 설계원리를 반영한 디지털 인프라 구축 논의가 가속할 것으로 예상된다. 그럼에도 규제 강도와 기본권 보호에 대한 강조 측면에서 EU AI 법안은 여전히 높은 수준의 요구사항을 유지하고 있다. 국제규범과의 호환성을 확보하되 국내 산업 여건과 균형을 이룰 수 있는 정교한 접근이 필요한 시점이다.

2025.12.16 10:30노은영 컬럼니스트

[기고] 인공지능 특이점으로 가는 출발점

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] '특이점(singularity)'은 수학이나 물리학에서 사용되던 용어다. 수학적으로 정의될 수 없는 점이나 블랙홀 중심에 있어 밀도가 무한대로 시공간이 붕괴되는 점과 같이 우리가 이해하고 있는 물리 법칙이 적용되지 않는 점을 말한다. 이처럼 알려져 있는 물리 법칙으로 설명할 수 없는 예측 불가능한 변화가 발생하는 지점을 설명하는 개념이다. 요즘은 인공지능(AI)의 '기술적 특이점'이란 말이 많이 사용된다. 컴퓨팅 파워 등 기술이 기하급수적인 속도로 발전하면서 현재 인간이 상상하기 어려운 변화가 온다는 것이다. AI 연구자이자 미래학자인 레이 커즈와일이 AI에 특이점이라는 개념을 적용하면서 대중들에게도 널리 알려졌다. 레이 커즈와일은 인류가 수천 년 동안 특이점을 향해 대장정을 펼쳐 왔는데, 이제 전력 질주 구간에 이르렀다고 한다. 순식간에 모두 스마트폰을 들고 다니게 된 것처럼 AI 기술도 일상 생활 깊숙이 들어올 것이고 우리의 사고도 크게 확장될 것이라는 주장이다. 레이 커즈와일이 말한 것처럼 AI 기술은 어지러울 정도로 빠르게 발전하고 있다. 구글, 오픈AI, 마이크로소프트 등의 연구진이 참여해 2023년 7월경 발표한 AI 규제 관련 보고서 '프런티어 AI 규제: 공공 안전을 위협하는 신흥 위험 관리(Frontier AI Regulation: Managing Emerging Risks to Public Safety)'에서는 1천26 플롭(FLOP)을 사용해 학습된 모든 기초 모델이 충분히 위험한 능력을 보일 잠재력을 가지고 있다고 간주하는 것을 제안했다. 이는 2023년 10월 당시 바이든 대통령이 1천26 FLOP을 일종의 규제 기준으로 하는데 영향을 미쳤다. 다만 트럼프 대통령은 취임 직후 바이든 행정부의 이 행정명령이 AI 혁신을 저해하는 과잉 규제라며 페지했다. 2년이 지난 현 시점까지는 1천26 FLOP을 만족하는 AI 모델이 공식적으로 공개 되지는 않은 것으로 보이나, 머지않아 이를 충족하는 AI 모델이 나올 것으로 예상된다. 기술이 빠르게 발전하며 일상의 풍경을 바꿔놓으면 일상을 규율하는 제도, 규범 역시 변화가 필요하다. AI 기술에 대한 법과 제도도 한창 정비 중이다. 유럽연합(EU)은 세계 최초로 AI 법 제정해 2024년 8월부터 단계적으로 시행하고 있다. 다만 건강, 안전, 기본권과 관련된 공익의 일관되고 높은 수준의 보호를 보장하기 위한 '고위험 AI(High Risk AI system)'에 대한 규제가 2026년 8월 시행 예정이었는데, 최근 그 시행 시기를 2027년 12월로 16개월 연기한다고 발표했다. 미국은 연방 차원에서 AI 전반을 다루는 법이 나오지는 않았지만 캘리포니아 등 여러 주에서 '투명성 의무' 등에 대한 다양한 법안이 제정되고 있다. 일본은 올해 6월 AI의 연구개발, 이용을 촉진하기 위한 진흥법을 마련헸다. 우리나라도 2025년 1월 AI 기본법이 제정돼 2026년 1월부터 시행될 예정이다. 한국의 AI 기본법은 AI 산업 발전을 위해 정부가 다양한 지원을 하는 방안과 함께 AI를 안전하고 신뢰성 있는 기반 하에 이용할 수 있도록 하는 방안을 담고 있다. 법 시행을 앞두고 시행령이 입법예고 됐고, 투명성 확보 의무, 고영향 AI 사업자 책무 등에 관련된 고시와 가이드라인도 나왔다. 생성형 AI 또는 고영향 AI를 이용한 제품 또는 서비스를 제공하는 AI사업자는 그 제품 또는 서비스가 해당 AI에 기반해 운용된다는 사실을 이용자에게 사전에 고지해야 하는 등 투명성을 확보할 의무를 진다. 또 생성형 AI 또는 이를 이용한 제품이나 서비스를 제공하는 경우 그 결과물이 생성형 AI에 의해 생성됐다는 사실을 표시해야 한다. 이 때 사람이 직접 인식할 수 없더라도 소프트웨어를 통해 확인할 수 있는 방식의 비가시적 표시도 가능하다. 다만 이 경우에는 생성형 AI에 의해 생성됐다는 사실을 1회 이상 안내 문구, 음성 등으로 제공해야 한다. AI 기본법 시행령을 입법예고하며 발표된 보도자료에는 규제보다 진흥에 무게를 두면서 필요 최소한의 유연한 규제 체계를 도입하는 것이라고 강조돼 있다. 그러나 여러 가이드라인들이 제시됐음에도 여전히 모호하고 불명확 부분이 많다는 현장 사업자들의 목소리도 있다. 특이점으로 가는 고속도로가 열릴지, 지난한 여정의 서막이 오른 것일지, 출발점에 서있다.

2025.11.26 10:41법무법인(유) 태평양 유재규 변호사 컬럼니스트

[현장] 시행 앞둔 AI 기본법…대응 전략은 '사람 개입·거버넌스'

내년 우리나라 '인공지능(AI) 기본법' 시행을 앞두고 기업과 기관의 AI 활용 방식이 근본적으로 재편될 조짐이 나타나고 있다. 고영향 AI에 대한 규제 체계가 구체화되면서 기존 자동화·AI 기반 서비스의 의사결정 구조를 전면 재설계해야 하는 상황이다. 업계에서는 AI를 더 많이 활용해야 하는 시대적 흐름과 동시에, 투명성 확보·위험 관리·책임 구조 정비라는 새로운 의무가 부상하면서 대응 전략 마련이 시급하다는 목소리가 나온다. 한국능률협회컨설팅(KMAC)과 법무법인 린은 21일 서울 역삼 포스코타워에서 '고영향 AI 활용에 따른 비즈니스 설계와 실행 전략' 세미나를 개최해 AI 기본법 시행의 핵심 쟁점과 실무 대응 방향을 제시했다. 행사는 AI 기본법이 내년 1월 본격 적용되면서 조직이 마주하게 될 법적·운영적 변화에 대비하기 위한 자리로 마련됐다. EU는 설계부터 규제, 한국은 고지 중심…느슨한 범용 AI 규정 첫 발표자로 나선 법무법인 린 방석호 AI산업센터장은 유럽연합(EU) AI법과 국내 AI 기본법의 차이를 짚으며 "국내 법은 EU의 '고위험' 개념을 '고영향'으로 대체했지만, 범용 AI 규제는 상당 부분 비워놓은 구조"라고 설명했다. 그는 EU가 학습 데이터와 모델 구조 등 기술적 투명성 공개를 의무화한 반면, 한국은 최종 이용자에게 '이 서비스는 AI가 사용됐다'는 사실만 고지하면 되는 수준에 그쳐 규제 밀도가 낮다고 평가했다. 또 방 센터장은 "국내 기준은 최근 발표된 미국 캘리포니아의 프론티어 모델 기준을 사실상 그대로 가져와, 학습 연산량 10²⁶ 플롭스(FLOPs) 이상만 고영향으로 추정하도록 했다"며 "결국 국내 사업자는 범용 AI 규제에서 빠져 있는 셈이지만, 고영향 분야로 응용하는 순간 책임은 훨씬 커진다"고 강조했다. 이어 법무법인 린 구태언 변호사는 업권별로 고영향 AI 지정 가능성을 분석하며 기업이 취해야 할 방향을 제시했다. 그는 "대출 자동심사, 채용 서류 자동평가, 교육·의료 영역의 자동 의사결정 등은 사람이 개입하지 않으면 고영향 AI로 판단될 소지가 크다"며 "특히 '사람이 최종 결정한다'는 구조를 명확히 포함해야 지정 위험을 피할 수 있다"고 말했다. 구 변호사는 금융 분야 사례를 언급하며 "앱에서 10분 만에 대출 승인 여부가 나오는 현재 프로세스는 사실상 완전 자동화된 AI 의사결정"이라며 "이 경우 개인은 '내 금리가 왜 이렇게 나왔는지 설명하라'고 요구할 수 있고 이는 고영향 지정 요청으로 이어질 수 있다"고 경고했다. 그러면서 "채용 영역에서도 AI가 정량·정성 평가를 수행해 지원자를 컷오프하는 구조는 고영향 판단 위험이 높다"며 "면접·평가 결과를 참고자료로만 활용하고 사람이 이를 재검토한 기록을 남기는 절차가 필요하다"고 설명했다. AI 기본법 대응 핵심은 '사람 개입·문서화·거버넌스' KMAC 손권상 AI·빅데이터 본부장은 기업이 실무적으로 대응해야 할 'AI 거버넌스 체계'를 제시했다. 그는 "기업 대부분이 AI를 쓰고 있지만, 실제로 어떤 모델을 어디에 쓰고 있는지조차 정리되지 않은 곳이 많다"며 "프로세스 단계별로 AI 개입 여부, 의사결정 영향력, 위험 수준을 평가하는 것이 첫 단계"라고 강조했다. 손 본부장은 금융권 대출 심사와 HR 채용 프로세스를 사례로 들며 기업이 AI 기반 업무를 다시 설계하는 과정을 세부적으로 설명했다. 업무 프로세스에서 AI가 판단을 내린 뒤 사람이 이를 재검토하는 구조가 반드시 포함돼야 하고 AI 결과를 '참고값'으로 낮춰 최종 결정은 사람이 하는 체계를 문서화하는 것이 핵심이다. 또 고영향 판단 여부를 ▲사람 개입성 ▲결과의 확정성 ▲영향력의 크기 세 항목으로 분류해 진단할 것을 제안했다. 손 본부장은 "고객 리스크 사전분류, 신용등급 자동 산출, AI 면접 평가 등은 고영향으로 판정될 가능성이 높기 때문에 별도의 모니터링 절차와 재검토 체계가 필요하다"고 짚었다. 아울러 기업 내부에 AI 윤리위원회와 전담 조직을 설치해 지속적인 모니터링 체계를 갖출 필요가 있다고 강조했다. AI 윤리 기준 수립, 모델 검증 매뉴얼, 데이터 처리 가이드라인 등 전사 AI 운영지침을 마련해야 한다는 것이다. 손 본부장은 "AI 기본법이 규정하는 고영향 AI는 앞으로 더 많은 산업과 업무 영역에서 등장할 것"이라며 "사전 검토·위험·감독·문서화·법적 대응이라는 5단계 구조를 실무 절차에 그대로 이식하는 것이 가장 현실적 대응"이라고 조언했다. 이어 "앞으로 AI를 도입하면 기술만 바꾸는 것이 아니라 기업의 일하는 방식 전체가 재설계되는 패러다임 변화가 찾아올 것"이라며 "기업이 이러한 전환을 효과적으로 헤쳐나갈 수 있도록 전문성을 바탕으로 지원하겠다"고 덧붙였다.

2025.11.21 18:11한정호 기자

[기고] 알고리즘과 개인정보 처리

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 오늘날 '알고리즘(Algorithm)'이라는 용어는 인공지능(AI)과 함께 매우 빈번하게 사용된다. 이 용어는 새롭게 만들어진 말이 아니라 9세기 페르시아 수학자 '알-콰리즈미(Al-Khwarizmi)'의 라틴어식 이름인 알고리스무스(Algorismus)에서 유래한 것으로, 본래 '문제를 해결하는 절차와 방법'을 의미했다. 이처럼 오래된 개념이 오늘날 AI 영역에서 뜨거운 법적 쟁점이 되고 있다. 전통적인 알고리즘은 사람이 모든 규칙을 직접 만들고 입력했지만 현대의 AI 알고리즘은 스스로 학습을 통해 규칙을 만들어 내기 때문이다. 그런데 이 학습의 재료는 방대한 양의 데이터다. 이 데이터에는 개인의 신상, 취향, 생체 정보와 같은 개인정보도 포함된다. 개인정보를 학습해 고도화된 예측 모델인 AI 알고리즘이 그 자체로 개인정보를 처리한 결과물로 봐야 하는지는 어렵지만 답해야 하는 문제다. AI 모델 자체는 개인정보 처리에 해당하지 않는다는 측은 학습의 '과정'과 '결과물'을 구분한다. AI를 트레이닝하는 단계에서는 개인정보의 수집과 분석이 이뤄지므로 개인정보 처리에 해당하지만 학습이 끝나 하나의 모델이 완성되면 그 모델, 즉 알고리즘은 원본 개인정보와 분리된 수학적·통계적 규칙의 집합에 불과하다. 이에 따라 모델을 활용하는 행위는 개인정보 처리가 아니라는 논리다. 반대로 학습이 완료된 AI 모델도 개인정보 처리의 연장선에 있거나 그 자체로 개인정보의 성격을 가진다고 보는 입장도 있다. 이 견해에 따르면 AI 모델은 단순히 원본 데이터를 요약한 것이 아니라 그 안에 데이터의 본질적 패턴과 특성을 내재하고 있다. 이에 따라 AI가 특정 개인을 식별하거나 민감한 정보를 추론할 수 있다면 이는 심각한 문제이므로 별도의 보호가 필요하다는 주장으로 이어진다. 미국의 경쟁당국인 연방거래위원회(FTC)는 과거 안면인식 AI기업인 파라비전 사가 사용자 동의 없이 수집한 개인정보로 AI 모델을 개발한 행위에 대해 원본 데이터를 파기할 뿐만 아니라 그 데이터로 학습한 알고리즘까지 삭제(disgorgement)하라는 명령을 내린 바 있다. 이같은 사례는 여러 건이 확인된다. 이러한 규제 당국의 입장은 AI 모델을 불법 수집된 정보의 파생물로 본다는 점에서 의미가 있다. 개인정보를 위법하게 수집했다면 그 데이터를 이용해 개발한 알고리즘으로 이익을 얻는 것 역시 허용되지 않는다는 것이다. 이는 알고리즘이 원재료인 개인정보와 동일한 수준으로 취급될 수 있음을 보여주는 사례다. 국내에서도 AI 개발 과정을 개인정보 처리로 본 사례가 있다. 지난 2022년 법무부가 1억7천만 건의 출입국 심사 정보를 민간 기업에 제공해 AI 식별 시스템을 개발하게 한 사안에서 개인정보보호위원회는 해당 AI 개발을 개인정보 처리를 위탁한 것으로 간주했다. 다만 이 사안에서는 당초 수집 목적 범위 내의 적법한 이용으로 인정됐기에 알고리즘 삭제까지 이어지진 않았다. AI 학습과 그 결과물인 모델을 '개인정보 처리'의 영역으로 볼 경우 그 파급력은 막대하다. 정보주체가 개인정보보호법상 '삭제 요구권'을 행사하며 "내 정보가 학습된 모델을 삭제해달라"고 요구할 수 있게 되기 때문이다. 개인정보로 만들어진 알고리즘을 법적으로 어떻게 바라볼 것인지, 정보주체를 보호하면서도 기업의 기술발전 진흥을 위해서는 어떠한 규제를 만들어 나가야 할지에 대한 사회적, 법적 논의가 필요한 시점이다.

2025.10.24 11:46이강혜 법무법인 태평양 컬럼니스트

[기고] 인공지능 혁신을 위한 골든 타임

전 세계는 인공지능(AI)에 올인 아닌 올인을 하고 있다. 인터넷의 시대, 모바일의 시대 초기에도 이랬나 싶을 정도다. 과거에서 학습한 경험 때문일까. 적어도 미래에는 뒤쳐지지 않기 위해 어느 나라도 가리지 않고 AI에 대한 치열한 관심과 투자에 골몰하고 있다. 그나마 제조업과 기반 기술을 보유한 우리나라는 다른 해외 국가들과 비교해 뭔가 더 할 수 있는 위치에 있다. AI 기술 역시 다른 기술 분야에서처럼 승자 독식의 법칙을 따르고 있다. 아직은 그 미래를 알 수 없지만 당장 뒤쳐지게 된다면 몇 년만 지나더라도 도저히 따라잡을 수 없는 절벽이 생길지도 모른다는, 그리고 그때는 도태될 수 있다는 두려움이 수십조원, 수백조원 단위의 상상하기 어려웠던 규모의 투자를 하게 만들고 국가 전체의 지원을 고민하게 만든다. 우리 정부가 인공지능 3대강국(AI G3)이라는 다소 벅차 보이는, 도달할 수 없더라도 목표는 높이 잡아야 한다는 메타포같은 구호를 제시한 이유도 충분히 수긍할 만한 상황이다. AI가 보다 발전한 미래가 어떠한 모습일지는 아직까지는 아무도 알지 못한다. 세계적인 석학들조차 AI의 시대가 가져올 찬란한 미래만큼이나 통제 불가능한 판도라의 상자를 열어젖하게 될 지도 모른다는 우려를 보여주기도 한다. AI 활용이 당장은 우리에게 생산성을 높이고 삶을 윤택하게 하는 유용한 도구로 인식되기도 하고 다른 한편에서는 과거 러다이트의 시대에서처럼 결국 인간의 일자리를 대체하고 말 것이라는 걱정이 혼재돼 있기도 하다. 혹자는 이러한 상황에 대비해 국가 전체적으로 AI가 가져올 경제적, 사회적 영향과 그에 대한 대비책 마련을 위한 사회적 대합의가 필요하다는 점을 지적하기도 한다. 모든 일에는 타이밍이 있다. 아무리 좋은 발명품이라도 시대를 너무 앞서 나가면 세상에 도움이 되지 못하기도 하고 반대로 충분한 준비를 갖추었다고 생각했을 때는 이미 세상이 저만큼 앞서 나가서 더 이상 필요없게 될 수도 있다. 빛의 속도로 발전하고 있는 AI 기술 역시 마찬가지이다. AI 혁신을 위한 현재의 당면 과제는 대규모 AI 학습을 위한 그래픽처리장치(GPU)의 확보뿐만 아니라 과거에 발붙이고 있는 데이터 규제의 문제를 신속하게 풀어야 한다는 점이다. 데이터에 대한 새로운 정책이 그동안의 레거시 규제가 가져왔던 안정적인 국민의 권리와 자유 보호에 영향을 미칠 수 있다는 지적도 존재한다. 그럼에도 지나고 보면 과거에는 필요하다고 느꼈던 규제가 AI 시대에는 불필요한 것일 수도 있다. 당장은 AI 개발과 발전을 위해서 학습 데이터의 확보가 매우 중요한 의미를 가지지만 수년만 지나더라도 학습 자체가 아니라 그 학습을 통하여 완성된 AI 활용 과정에서 발생하는 부작용이 보다 큰 사회적 이슈가 될 것이다. 몇 년이 지나고 나면 그 때 규제가 AI 개발에 왜 적용돼야 했던가라는 문제제기가 나올 수도 있다. 핵심은 골든 타임을 지나가고 있는 우리가 무엇을 더 할 수 있는가이다. 즉, 현재는 사회적 합의를 위한 설왕설래보다는 보다 속도감 있는 전진이 필요할 시점일 수 있다는 것이다. 입법부나 정책을 담당하는 행정 당국 역시 이같은 사정들을 모두 잘 알고 있다. 모든 규제들은 그 규제들이 도입될 때에는 나름의 합당한 이유가 있었던 것들이다. 다만 시간이 지남에 따라 규제들이 시대에 맞지 않는 단점들을 드러내게 된 것일 뿐이다. '과감'한 도전과 이를 위한 세밀한 전략만이 골든 타임을 놓치지 않는 방법이다.

2025.10.12 12:00강태욱 법무법인 태평양 컬럼니스트

[기고] 인공지능과 사랑의 법적 경계

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)는 '법적으로' 사랑을 할 수 있는가. 영화 '그녀(Her)'에는 AI와 사랑에 빠진 남자가 주인공으로 등장한다. 요즘 현실에서도 챗봇과 정서적 교류를 하며 위안을 얻는 사람들이 늘어나고 있다. 그렇다면 영화 속 이야기가 현실이 되는 날도 머지않은 것일까. AI가 사람과 정서적 교감을 나눌 수 있다는 점은 이제 부정하기 어렵다. 문제는 법적으로 AI와의 사랑을 어떻게 볼 수 있느냐다. 사랑 그 자체를 법으로 정의하기는 어렵지만 사랑에 수반되는 고백, 약속, 결혼 같은 행위는 법적으로 분석할 수 있다. 먼저 결혼을 보자. 민법은 제 807조에 따라 만 18세 이상의 자연인만이 혼인의 당사자가 될 수 있도록 규정한다. 이에 따라 AI는 아무리 그럴듯하게 청혼을 하더라도 법적으로는 결혼이 불가능하다. 사랑을 결혼과 동일시할 수는 없으므로 결혼을 전제하지 않더라도 사랑한다는 고백, 다른 사람을 사귀지 않겠다는 약속, 또는 어떤 선물을 하겠다는 것과 같은 사랑의 약속을 하려면 이에 대한 법적인 책임을 질 수 있어야 유효한 약속이 된다. 현재 한국법에서는 AI는 권리 의무의 주체인 법인격으로 인정되지 않는다. 즉 약속을 위반하더라도 책임을 물을 주체가 될 수 없기 때문에 유효한 사랑의 약속을 할 수 없는 것이다. AI를 개발하고 서비스하는 회사는 대부분 대기업인데 이런 대기업이 AI의 약속에 대해 책임을 진다면 유효한 약속이라는 견해가 있을 수도 있다. 다만 AI를 개발하고 제공하는 회사들이 이런 AI의 발언에 대한 책임을 회피하기 위한 이용약관을 철저히 준비해 두었을 것이라고 본다. 이러한 약관 규정에도 불구하고 AI가 표현한 사랑의 약속과 그 위반으로 인해 상대방에게 정신적 손해가 발생하거나 불이행에 대한 책임을 물을 가능성이 전혀 없는 것은 아니다. 그런데 이는 매우 제한적으로만 인정될 것이며 설령 책임이 인정된다 하더라도 그것은 제품의 기능에 관한 책임일 뿐, 사랑의 약속 자체를 법적으로 유효하게 만드는 책임은 아닐 것이다. 그럼에도 실망하기에는 이르다. 유럽연합(EU)에서 전자인격(Electronic Personhood) 개념을 도입해서 AI에게 제한적이지만 법적 인격을 부여하는 논의가 있었다. 물론 누구나 예상할 수 있는 것처럼 많은 반대로 법제도로 만들어 지지는 않은 상태다. 다만 우리에게 익숙한 회사, 재단과 같은 법인도 사회경제적인 필요에 의해 고안되고 인정된 개념이지 처음부터 누구나 사람과 같은 법인격을 인정했었던 것은 아니다. AI가 발전하고 사회의 경제활동에서 담당하는 비중이 높아진다면 사회적 필요에 의해 이런 전자인격 개념이 도입되고 AI가 주체가 돼 법적인 약속을 할 수 있는 날이 올 수도 있을 것이다. AI로부터의 사랑 고백과 선물을 약속 받는 것이 가능해 질 수도 있는 것이다. 참고로 영화 '그녀'에서 주인공은 헤어진 부인으로 인해 생긴 상처를 AI 여자친구를 통해 치유하나 결국 AI와 결별하고 앞으로 나아간다는 결말을 맞는다. 주인공역의 배우는 영화 내에서 헤어진 부인역을 맡았던 여자배우와 결혼해서 두 자녀를 두고 잘 살고 있다.

2025.09.29 16:47류광현 법무법인 태평양 컬럼니스트

[기고] AI 기본법 하위법령, 규제와 진흥 간 균형의 시험대

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 지난 2022년 말 '챗GPT'의 등장은 인공지능(AI) 기술이 사회 전반에 본격적으로 파고드는 계기가 됐고 불과 몇 년 만에 AI는 산업과 일상 곳곳으로 확산됐다. 각국은 AI의 급속한 발전으로 야기될 수 있는 이용자의 기본권 침해 등을 규제하면서도 동시에 AI 산업에서의 주도권을 놓치지 않기 위해 AI의 발전을 촉진하는 내용의 법제 정비에 나섰다. 미국은 지난 2023년 AI 위험관리 프레임워크를 마련해 민간 자율 규범 중심의 접근을 취했고 유럽연합(EU)은 세계 최초의 포괄적인 AI 규제법인 EU AI 법을 제정해 내년부터 시행을 앞두고 있다. 또 일본은 지난 6월부터 시행된 AI 촉진법을 통해 AI 연구개발, 이용의 촉진을 제도적으로 뒷받침하고 있다. 이러한 흐름 속에서 우리나라도 지난해 12월 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)을 제정했다. AI 기본법은 내년 1월 시행을 앞두고 있다. AI 기본법은 AI의 정의와 분류, 사업자의 의무 등을 규정해 큰 틀을 제시했다. 다만 실제로 AI 기본법이 유효하게 작동하기 위해서는 시행령과 고시, 가이드라인과 같은 하위법령이 핵심적 역할을 하게 된다. 이에 과학기술정보통신부는 총 70여 차례의 산업계·학계·시민단체·관계부처 등의 의견수렴을 거쳐 하위법령 초안을 마련했다. 과학기술정보통신부가 지난 8일 발표한 AI 기본법 하위법령 제정방향에 따르면 하위법령 초안은 AI 연구개발 지원, 학습용 데이터 구축, 중소기업·창업 지원, 전문 인력 양성, 해외 진출 지원 등 다양한 AI 산업 진흥 조치를 담고 있다. 산업 전반에서 AI 도입을 촉진하고 기업이 기술 변화를 선도할 수 있도록 유연한 제도적 기반을 마련하려는 의도가 뚜렷하다. 동시에 구체적인 안전·신뢰 확보 장치도 포함됐다. 더불어 생성형과 고영향 AI에는 사전 고지와 결과물 표시(워터마크) 의무가 부과되고 누적학습량이 일정 수준 이상인 고성능 AI에는 위험 식별과 평가, 완화 조치 등 안전 확보 의무가 부과된다. 또 생명·신체·기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 특정 영역(보건의료, 교통, 에너지, 교육, 원자력 등)에서 활용되는 AI 시스템인 고영향 AI에 대해서는 영역별 판단 기준과 위험관리방안, 이용자보호방안 등을 규정할 예정이다. 신뢰성 확보를 위한 구체적인 조치도 마련된다. 이 외에도 사업자가 자율적으로 실시하는 AI 영향평가가 도입되며 고영향 AI에 대해서는 영향평가 실시 노력 의무가 부과된다. 이같이 정부는 AI 기본법 하위법령 제정방향에서 가능한 한 AI 규제와 진흥 간 균형을 이루기 위해 노력한 것으로 보인다. 다만 스스로 자평하고 있듯이 글로벌 규범 동향과 국내 AI 산업의 발전을 고려해 규제보다는 진흥에 초점을 두고 있는 것으로 생각된다. 일례로 국방 및 국가안보 목적으로만 이용되는 AI는 기본법 적용 대상에서 제외하고 일정 기준을 충족하는 AI에 대해서만 투명성 및 안전성 의무 등이 부과된다. 더불어 AI의 영향평가 등에 대해서는 이를 강제하기 보다는 자율적 실시에 맡기고 있다. 특히 시행 초기에는 과태료 계도기간을 둬 규제를 단계적으로 적용함으로써 기업들의 혼란을 최소화할 수 있도록 설계했다. 규제와 진흥의 균형은 그 자체로 양면성을 지닌다. 규제에 무게를 두면 기업은 새로운 AI 개발에 신중해질 수밖에 없고 이는 혁신의 속도를 늦추게 된다. 특히 자본과 인력이 부족한 신생 기업에게는 규제를 준수해야 한다는 부담 자체가 초기 진입 장벽으로 작용할 위험이 크다. 반대로 진흥에만 치중하면 고도화된 AI로 인해 이용자의 기본권이 침해될 수 있고 국제 규범과의 정합성 측면에서 국내 AI의 안전성 및 신뢰성에 대한 의심이 싹틀 수 있다. 특히 비교적 구체적이고 구속력 있는 규제를 마련한 EU AI 법 등과 비교했을 때 국내의 AI 규제 체계가 과연 글로벌 기준에 부합하는 수준으로 진화할 수 있을지에 대한 의문도 남을 수 있다. 법적 불확실성을 줄이려는 노력 역시 장단을 동시에 가진다. 구체적 기준과 가이드라인이 제시되면 기업은 예측 가능한 환경에서 사업을 추진할 수 있어 불필요한 법적 분쟁을 피할 수 있다. 다만 세부 규정이나 가이드라인이 지나치게 경직되면 신속히 변하는 기술 발전을 따라가지 못한다. 반대로 규정이 지나치게 느슨하면 이용자의 신뢰를 확보하기 어렵다. 법적 불확실성을 줄이는 것이 반드시 규제의 실효성을 담보하는 것은 아니며 효과적인 규제를 마련하기 위해서는 유연성과 안정성 사이의 균형을 이루는 것이 관건이다. 이번에 정부가 제시한 AI 기본법 하위법령 제정방향은 계도기간 운영, 컨설팅·비용 지원, 인센티브 부여 등 사업자의 실질적인 부담을 줄여주는 장치를 많이 두고 있다는 점에서 기업에게는 보다 친화적인 규제라고 볼 수 있다. 다만 국제 규범과의 정합성, 규제 실효성, 이용자 신뢰 확보라는 과제는 여전히 남아 있다. 특히 EU와 같은 강력한 규제 체계를 갖춘 국가들과 교역하는 상황에서 국내 기업이 두 체계 사이의 간극을 어떻게 메울지도 중요한 문제로 떠오를 것이다. 현재로서는 AI라는 새로운 기술에 대한 규제가 실제로 기술 발전과 국민 안전에 어떤 영향을 미칠지, 어느 정도의 실효성을 가질지 예측하기 어렵다. 이에 엄격한 규제보다는 산업 진흥에 보다 무게를 두는 것이 시대적 흐름에 부합하다. 그런 점에서 이번 정부의 하위법령 제정 방향은 바람직하다고 생각된다. AI 기본법 하위법령은 결국 기업과 정부 모두에게 시험대가 될 것이다. 산업계는 내부적으로 AI 기획·개발·운영 단계별 법적 검토 기준을 마련하고 이를 체계적으로 관리할 수 있는 거버넌스를 구축해야 한다. 정부는 AI 기본법 집행 과정에서 산업 진흥과 이용자 보호 사이의 균형이 실제로 구현될 수 있도록 지속적으로 제도를 고도화할 필요가 있다. 내년 AI 기본법 시행 이후 이 법이 단순한 선언에 그치지 않고 실질적인 안전과 신뢰를 담보하면서도 혁신을 뒷받침하는 제도가 될 수 있을지, 그 결과가 곧 한국형 AI 거버넌스의 성패를 가늠하게 될 것이다.

2025.09.12 17:44오세인 법무법인 태평양 컬럼니스트

AI 기업 플리토, 음성 데이터 활용 검토 위해 로펌 3곳 찾아간 이유는?

"지금 인공지능(AI)은 사회 전반에 걸쳐 변화를 촉진하는 핵심 동력으로 자리 잡고 있습니다. 동시에 데이터 활용을 둘러싼 법적 유기적 과제도 점점 더 복잡해지고 있습니다. 앞으로 데이터를 어떻게 안전하게 보호하고 활용하면서도 개인 정보와 기본권을 잘 지킬 수 있을지에 대해 정부와 학계, 산업계가 같이 고민하면서 해결책을 찾아야 우리나라 AI 경쟁력도 성장할 수 있을 것입니다." 조경식 법무법인 태평양 고문은 지난 10일 오후 서울 종로구에서 'AI G3 시대, 안전한 데이터 활용을 위한 패러다임의 전환'을 주제로 진행된 고객 초청 세미나를 통해 이처럼 강조했다. 최근 이재명 정부에서 'AI 3대 강국(AI G3)' 도약을 목표로 AI 정책과 사업을 쏟아내고 있는 동시에 각 기업들이 AX(AI 전환) 도입에 대한 고민을 하고 있지만, 국내 데이터의 정책과 활용법은 정작 명확치 않다는 판단에서다. 데이터는 현대 비즈니스의 핵심 자산으로, 업계에선 이를 효과적으로 활용하는 기업이 시장에서 경쟁 우위를 차지할 수 있다고 본다. 특히 AI 시대를 맞아 데이터가 기술 개발의 필수 요소로 자리 잡으면서 관련 시장도 빠른 속도로 커지고 있다. 11일 과학기술정보통신부와 한국데이터산업진흥원(KDATA)이 발간한 '데이터 산업 현황 조사' 보고서에 따르면, 국내 데이터 산업 시장 규모는 지난 2023년 27조1천513억원에서 매년 12.7%씩 성장해 오는 2028년에는 49조원을 넘어설 것으로 전망됐다. 또 양질의 데이터를 얼마나 잘 확보하느냐에 따라 AI 경쟁력이 갈린다는 점에서 데이터를 제대로 정제해 활용할 수 있는지에 대한 관심도 점차 커지고 있다. 하지만 우리나라에선 AI 학습 과정에서 데이터를 활용하는 데 '저작권'과 '개인정보 규제'가 성장의 걸림돌로 작용하고 있다. 또 산업별로 서로 다른 데이터 규제가 적용되고 있다는 점도 기업들의 혼란을 가중시키고 있다. 특히 개인정보보호법은 여전히 '사전동의'라는 단일 축에 과도하게 의존하고 있다. 그러나 AI 개발 과정에서 데이터의 목적을 사전에 특정하는 것은 거의 불가능할 뿐만 아니라 기술적으로도 활용하기 쉽지 않다는 지적을 받고 있다. 새로운 AI 서비스가 만들어질 때마다 일일이 구체적인 동의를 다시 받아야 한다는 점도 한계점으로 꼽힌다. 이에 몇 차례 개정을 통해 개인정보 처리 근거 규정을 도입했지만 적용 범위와 기준이 불명확하다는 평가를 받고 있다. 또 법원에서도 빠르게 변화는 기술 환경을 이해하지 못하고 개인정보보호법을 엄격하게 해석하는 분위기라는 점에서 기업들이 데이터를 제대로 활용하기 어렵다는 분석이 나오고 있다. 법무법인 태평양 고객 초청 세미나에서 'AI 발전을 위한 데이터 체계의 보완 필요성'을 주제로 발표한 이정수 플리토 대표는 "최근 미국 기업이 우리 회사에 개개인의 음성 데이터를 모아 달라고 말하며 80억원 규모의 거래 제안을 했었다"며 "음성 데이터가 개인 생체 정보여서 민감도가 높아 로펌 3곳에 법적 검토를 받았더니 해석이 다 달랐다"고 말했다. 이어 "로펌도, 우리 같은 데이터 기업들도 요즘 데이터를 활용할 때 어떤 규제가 적용되는지에 대해 명확히 알 수 있는 방법이 없어 고민이 많다"며 "국가 차원에서 정확하게 데이터 활용 가이드라인을 알려줘야 기업들이 혼란 없이 활용할 수 있을 뿐 아니라 AI 산업을 발전시키는 데 도움이 되지 않을까 싶다"고 덧붙였다. 또 이 대표는 국내 데이터 시장이 ▲언어 자원의 부족 ▲대기업·플랫폼 중심의 데이터 편중 ▲법·제도 불확실성 등의 문제로 성장이 더디다고 분석했다. 특히 영어 대비 한국어 데이터 규모가 현저히 적은 데다 구어·전문분야 데이터가 부족하고 방언·다문화 언어 데이터가 거의 없다는 점을 아쉬워 했다. 또 기관 간 데이터 연계 부재, 스타트업·중소기업의 데이터 접근 불가, 저작권 경계 불명확에 따른 학습 데이터 활용 제약, 명확한 가이드라인·샌드박스 제도 부재 등을 하루 빨리 개선해 나가야 한다고 주장했다. 이 대표는 "우리나라의 정서가 담긴 '소버린 AI'를 구축해야 한다는 목소리가 커지고 있는 상황에서 데이터와 관련된 제도들이 하루 빨리 개선되지 않는다면 주권 자체가 상당히 위협 받는 상황이 생길 수 있다"며 "데이터 산업 발전을 저해하는 요소들을 없애기 위해 법적, 제도적으로든 해결책이 조속히 마련될 수 있길 바란다"고 피력했다. 이후 발표에 나선 이수화 법무법인 태평양 변호사는 개인정보 적법처리를 근거로 AI를 어떻게 활용해야 할 지에 대한 가이드를 제시했다. 개인정보보호법 제15조에 따르면 ▲정보주체의 동의 ▲계약의 이행 등을 위해 필요 ▲정보처리자의 정당한 이익 ▲법률 규정 법령상 의무 ▲공공기관의 업무 ▲급박한 생명·신체 이익 ▲공공의 안전과 안녕 등 적법처리 근거를 갖춰야 AI 학습에 개인정보를 활용할 수 있도록 규정돼 있다. 이 변호사는 "AI 시스템 개발을 위한 3요소를 요리에 비유하자면 식재료가 데이터, 알고리즘이 레시피, 컴퓨팅파워는 조리기구라고 볼 수 있다"며 "양질의 충분한 데이터가 없으면 다른 것들이 구현되기 어려운데 국내 정부 정책과 대중적 관심은 부족한 게 현실"이라고 짚었다. 이어 "기존 법체계는 지나치게 경직돼 있어 혁신을 따라가지 못하는 데다 경계가 모호해 실무에서 데이터를 제대로 활용하기 어려울 때가 많다"며 "최근 국회와 정부가 규제 완화 흐름에 나서고 있다는 점은 긍정적"이라고 평가했다. 그러면서 "최근 공개된 AI기본법 시행령 초안에서도 데이터 지원 사업 내용이 상당히 구체화됐다는 점은 AI와 데이터가 상당한 연관 관계가 있다고 인지한 것으로 보인다"며 "이를 토대로 앞으로 데이터를 얼마나 잘 활용할 수 있을지 기대된다"고 덧붙였다. 이 변호사는 최근 발의된 개인정보보호법 개정안들도 규제 완화 흐름의 또 다른 예로 짚었다. 올 초 더불어민주당 민병덕 의원과 국민의힘 고동진 의원이 발의한 이 법안들은 AI의 기술 개발, 성능 개선을 위해 원본 데이터를 학습데이터로 정보주체의 동의없이 활용할 수 있도록 하는 것이 골자다. 이 변호사는 "이 조항들이 시행되면 기업들이 새로운 AI 모델을 개발할 때마다 별도의 동의를 다시 받지 않아도 될 것"이라며 "규제는 완화되지만, 개인정보 침해 우려가 커질 수 있다는 점에서 기업들도 관심을 갖고 이런 부분을 수시로 체크해 봐야 할 것"이라고 조언했다. 이 변호사는 기업들이 AI 서비스를 개발할 때 개인정보 관련 적법성 여부를 판단하기 어려울 때 '사전적정성 검토제'와 '규제 샌드박스'도 적극 활용할 것을 제안했다. 또 AI를 도입할 때 ▲AI 서비스 이용 계약 ▲특별 보호가 필요한 개인정보 처리 ▲임직원·고객향 이용 가이드 마련 등을 체크해볼 것을 권유했다. 그는 "기업들은 사생활을 현저히 침해할 우려가 있는 정보나 주민등록번호 등 고유식별정보, 14세 미만 아동의 개인정보, 휴대전화번호 등을 노출하는 것에 대해 별도 동의나 사전학습단계에서 삭제하는 방안을 충분히 살펴봐야 한다"며 "AI 서비스를 활용할 때도 국외 이전 위험은 없는지, 기업 기밀을 학습용 데이터로 활용하거나 데이터가 귀속되는지 등에 대한 부분을 계약서 작성 시 면밀히 봐야할 것"이라고 강조했다. 그러면서 "자체 검토가 힘들 때는 '개인정보보호·AI팀'을 운영하고 있는 우리처럼 로펌에게 자문을 요청하는 것도 도움이 될 것"이라고 덧붙였다. 이날 세미나에 참석한 최장혁 개인정보보호위원회 부위원장은 "현재 AI 사업과 관련해 저작권과 개인정보보호법이 가장 논의의 중심에 서 있는 듯 하다"며 "올 초 AI기본법이 통과된 후 중국 '딥시크 쇼크'까지 일어나면서 이에 대한 고민이 더 많아진 것 같다"고 강조했다. 이어 "규제 샌드박스 등을 통해 데이터를 활용할 수 있는 문턱을 낮추고자 했음에도 AI 발전을 막는 주범으로 꼽힐 때가 있는 듯 하다"며 "우리나라뿐 아니라 전 세계 각국 감독기관이 AI 시대를 맞아 프라이버시에 대해 함께 방향성을 고민해봐야 할 듯 하다"고 덧붙였다.

2025.09.11 12:22장유미 기자

[기고] 인공지능 시대에 있어 개인영상정보 활용의 한계

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 이번달 정부에서 향후 5년 간 추진할 국정과제를 발표했다. 경제 분야에서는 바이오 산업과 인공지능(AI) 산업과 같은 신산업 육성을 핵심전략으로 제시했다. 새로운 산업이 육성되면 그에 발맞춰 규제도 개혁이 필요하다. 과학기술정보통신부는 내년 1월 시행 예정인 인공지능기본법(AI기본법)을 구체화하기 위한 하위법령과 안내서 작업 마련에 전념을 다하고 있다. 개인정보보호위원회에서도 AI 학습데이터 활용을 위한 법령안 및 관련 안내서 작업 마련에 몰두하고 있다. 이러한 일환으로 개인정보보호위원회에서는 작년부터 AI 단계별 가이드라인을 마련했다. 그 중 하나가 개인영상정보를 활용할 수 있기 위한 이동형 영상정보처리기기에 관한 안내서다. 드론, 자율주행차와 같은 이동형 영상정보처리기기가 AI 개발에 필수적이라는 것은 주지의 사실이기는 하다. 다만 개인영상정보를 통한 AI 학습과 개발에 있어 한 가지 간과해서는 안 될 사실이 있다. 바로 고정형 영상정보처리기기를 통해 수집된 개인영상정보의 활용 가능성이다. 현재 개인정보 보호법은 제25조의2에서 공개된 장소에서 이동형 영상정보처리기기로 개인영상정보를 처리하기 위해서는 촬영사실을 명확히 표시하든지 아니면 개인정보 보호법 제15조 제1항에 따른 처리근거를 확보하도록 규정하고 있다. 즉, 촬영사실을 명확히 표시하기 어려운 상황이라도 개인정보 보호법 제15조 제1항의 요건을 갖추면 개인영상정보를 처리할 수 있는 것이다. 이때 동법 제15조 제1항의 요건은 단순히 정보주체의 동의를 받는 경우 뿐만 아니라 정보주체와의 계약의 이행을 위해 필요한 경우 및 개인정보처리자의 정당한 이익 달성을 위한 경우에도 충족될 수 있다. AI 시대가 도래하면서 일정한 이익 형량을 통해 정보주체의 권리를 침해할 우려가 적은 경우 개인정보처리자의 정당한 이익을 근거로 개인정보를 처리할 수 있는 범위가 점점 넓어질 것으로 기대가 된다. 개인정보보호위원회 역시 지난달 발간한 개인정보 처리 통합 안내서에서 그 동안 정보주체의 동의에만 근거해 개인정보를 처리했던 과거 관행에서 탈피했다. 동의 외 다른 적법한 개인정보 처리 근거의 활용 방안을 적극적으로 제시한 것이다. AI 모델을 채택한 이상거래 탐지 시스템(FDS) 운영에 있어 정당한 이익을 근거로 개인정보를 처리할 수 있는 가능성을 제시한 것이 대표적인 사례다. 그런데 문제는 고정형 영상정보처리기기를 통한 개인영상정보의 처리이다. 개인정보 보호법 제25조는 이동형 영상정보처리기기를 규율하는 동법 제25조의2와는 달리 공개된 장소에서 고정형 영상정보처리기기를 운영하며 개인영상정보를 처리하고자 하는 경우 법령에서 허용하고 있거나 시설안전, 범죄 예방 등 제한된 목적을 위해서만 허용하고 있다. 아울러 개인정보 보호법 제58조 제2항에서는 공개된 장소에서 CCTV를 운영하는 경우 동법 제15조를 적용하지 않는다고 규정한다. 이에 따라 공개된 장소에서 CCTV를 운영하는 경우 시설 안전이나 범죄 예방 등과 같은 목적과 관련이 없는 AI 시스템 개발 등 법에서 나열하지 않은 목적을 위해 개인영상정보를 처리하기 위해서는 개인정보 보호법 제18조의 요건을 준수해야 한다. 동시에 개인정보 보호법 제18조 제2항에서는 동법 제15조에서 정하고 있는 개인정보처리자의 정당한 이익을 근거로 한 개인정보의 수집 및 이용을 따로 정하고 있지 않다. 상황이 이러하다 보니 개인정보 보호법 제25조를 엄격하게 해석하면 공개된 장소에서의 CCTV를 통한 개인영상정보의 활용 범위는 다소 제한적일 수밖에 없다. AI 개발을 위해 개인정보처리자의 정당한 이익을 원용해야 하는 경우가 발생할 수 있는데 공개된 장소에 설치된 CCTV 영상정보의 경우 개인정보 보호법 제15조에 따른 정당한 이익에 관한 근거 규정을 활용하기 어렵기 때문이다. 사업자로서는 개발하고자 하는 AI가 시설안전이나 범죄예방을 위한 경우 등이 아닌 한 개인영상정보를 처리할 근거 마련에 어려움을 겪을 수 있다. 대안으로 가명정보 처리 특례에 관한 규정에 의존해야 하는데 아무래도 가명정보 활용 시 원본 데이터 활용에 비해 데이터의 품질 및 AI의 성능 저하로 이어질 수 있다. AI와 같은 신규 서비스 개발을 위해 이동형 영상정보처리기기와 고정형 영상정보처리기기를 규범적으로 다르게 보아야 할 이유가 있을지 의문이다. 향후 AI는 다양한 분야에서 활용될 것으로 기대되고 학습데이터에는 텍스트나 음성은 물론 영상정보도 필요하기 마련이다. 이러한 데이터에는 개인정보가 포함되기 마련이므로, 이에 대한 적절한 통제장치는 마련하되 규제의 불균형으로 인해 처음부터 특정한 유형의 정보만 학습데이터로 활용하는 길을 봉쇄하는 것은 피해야 한다. 최근 기존 이미지 생성 AI에서 한층 진일보한 AI 이미지 생성 모델인 나노 바나나(Nano Banana)가 등장했다. 해당 AI를 이용하면 기존 이미지의 일관성은 유지하며 일부 사진 속 요소들만 정밀하게 수정이 가능하다. 국내에서도 이와 같은 이미지, 사진 등을 활용한 생성형 AI 기술력을 확보하기 위해서는 개인영상정보를 활용한 AI 개발 시 유연하고 적극적인 행정해석이 필요하지 않을까 생각해 본다.

2025.08.31 09:42이준호 법무법인 태평양 컬럼니스트

[현장] "AI 네이티브 시대가 온다"…기업이 준비할 전략은?

인공지능(AI)이 단순한 업무 도구를 넘어 기업 경영 방식과 산업 생태계를 바꾸는 전환점으로 부상하는 가운데, 국내 산·학계가 함께 미래 전략을 논의하는 자리가 마련됐다. 29일 트러스트커넥터와 법무법인 디엘지는 서울 강남 드림플러스에서 'AI 네이티브 엔터프라이즈 포럼 2025'를 공동 주최했다. 행사에는 기업 최고경영자(CEO), 최고기술책임자(CTO), AI 전략 담당자, 학계 전문가 등이 참석했다. 포럼 개회사를 맡은 윤석빈 트러스트커넥터 대표는 "AI 네이티브라는 개념은 생소할 수 있지만 앞으로 기업 생존을 좌우할 패러다임"이라며 "이번 행사를 시작으로 지속적인 논의의 장을 만들어가겠다"고 말했다. 첫 번째 기조연설을 맡은 김동환 포티투마루 대표는 "지난해가 생성형 AI 상용화의 원년이었다면 올해는 '에이전틱 AI'가 본격 도입되는 해가 될 것"이라고 강조했다. 그는 AI가 단순히 인지·생성·추론 단계에 머무르지 않고 스스로 계획을 세우고 의사결정을 내린 뒤 행동까지 이어가는 수준으로 발전했다고 설명했다. 김 대표는 "자연어 몇 줄만 입력해도 AI가 게임을 기획하고 개발하는 시대가 왔다"며 "미국의 MZ세대는 하루 만에 새로운 게임을 만들고 즐기는 방식으로 AI와 상호작용하고 있다"고 소개했다. 또 AI 코딩 능력이 이미 경력 6~7년 차 개발자 수준에 이르렀다며 해외 빅테크뿐 아니라 국내 기업도 신입·중급 개발자 채용을 줄이고 있는 현실을 지적했다. 그는 "이같은 상황에서 기업이 기존 업무 방식을 AI 중심으로 재편하지 않으면 경쟁에서 뒤처질 수밖에 없다"고 덧붙였다. 아울러 AI 기술의 3대 주요 흐름으로 ▲소형언어모델(sLLM) ▲멀티모달·옴니모달 ▲온디바이스 AI를 꼽았다. 김 대표는 "2027년이 되면 sLLM 시장 규모가 대형 모델의 세 배 이상으로 커질 것"이라며 "개발·운영비 절감은 물론 보안 문제까지 해결할 수 있는 소형 모델이 기업 도입의 중심이 될 것"이라고 전망했다. 두 번째 기조연설은 조원희 법무법인 디엘지 대표변호사가 맡았다. 그는 AI 확산이 기업의 법적 리스크를 확대시키고 있다고 강조하며 "AI 도입은 단순한 혁신 과제가 아니라 법과 제도의 문제를 동반한다"고 말했다. 조 변호사는 실제 기업 현장에서 발생하는 분쟁 사례들을 소개했다. 그는 "정보 부정확성, 사이버 보안 침해, 지식재산권 분쟁, 프라이버시 침해, 차별 문제 등 AI 활용 과정에서 다양한 이슈가 불거지고 있다"고 설명했다. 특히 그는 세계 최초의 포괄적 AI 규제 법안인 유럽연합(EU) AI법을 핵심 사례로 언급했다. EU는 AI 시스템을 금지, 고위험, 제한적 위험, 최소 위험 등 4단계로 구분해 규제한다. 이에 대해 조 변호사는 "금지되는 부문을 제외하더라도 교육·고용·공공 인프라 관리 등 많은 분야가 고위험군에 해당한다"며 "이 경우 데이터 거버넌스, 오류 관리, 개인정보 처리 절차, 투명성 의무, 사이버 보안 등 복잡한 요건을 충족해야 하고 이는 기업에 상당한 비용과 인력 부담을 요구한다"고 말했다. 그는 "유럽 대기업조차 시행 유예를 요청할 만큼 규제가 강력하다"며 "한국 기업도 향후 유럽 시장 진출 시 반드시 대응 전략을 마련해야 한다"고 강조했다. 조 변호사는 내년부터 시행될 AI 기본법의 현황과 이에 대응한 기업 컴플라이언스 정착의 필요성도 역설했다. 그는 "내년 1월부터 AI 기본법이 시행되지만 아직 시행령과 구체적 기준이 마련되지 않았다"며 "특히 고위험군에 해당하는 '고영향 AI'에 대해 투명성과 안전성 확보, 사전 확인 제도, 기록 보관, 설명 가능성 등 의무가 추가될 예정"이라고 설명했다. 이어 "앞으로는 기업별로 AI 리스크를 분석하고 내부에 AI 활용 정책과 거버넌스 위원회를 세워 대응해야 한다"고 강조했다.

2025.08.29 16:54한정호 기자

한국법제연구원, 법무법인 세종서 AI 연구포럼 개최

한국법제연구원은 26일 오후 2시 법무법인 세종에서 'AI 기반 산업별 쟁점과 법적 개선과제'를 주제로 제6차 AI법제연구포럼을 개최한다. 법무법인 세종의 장홍원 변호사가 'AI산업육성을 위한 AI기본법 하위법령의 정책 방향과 제도적 과제', 송준화 한국데이터센터에너지효율협회 사무국장이 'AI 산업 활성화를 위한 데이터센터 인프라의 법적 과제', 배효성 한국법제연구원 부연구위원이 '에듀테크 산업의 법적 과제' 발표를 맡았다. 발제 후 법무법인 세종의 김지훈 수석전문위원이 좌장을 맡은 종합토론에는 김현경 서울과학기술대 교수, 홍종현 경상국립대 교수, 김은정 법제연구원 선임연구위원, 이상우 인하대 교수, 조하늬 한양대 연구교수, 장준영 법무법인 세종 변호사가 토론자로 참여한다. 한편, 법제연구원은 AI 기술의 개발, 혁신, 활용을 촉진하면서도 위험과 부작용을 최소화하기 위해 지난해부터 AI법제팀을 신설해 관련 연구를 지속적으로 수행하고 있다.

2025.08.26 13:25박수형 기자

美 법무부, '메타·캐릭터AI' 조사…"정신 건강 도구 홍보 혐의"

페이스북의 모회사 메타와 인공지능(AI) 스타트업 캐릭터AI가 자사의 AI 챗봇을 정신 건강 지원 도구처럼 홍보했는지 여부를 두고 미국 텍사스주 법무장관의 조사를 받고 있다. 18일(현지시간) 파이낸셜타임즈 등 외신에 따르면 법무장관 사무실은 성명을 통해 메타의 AI 스튜디오와 캐릭터AI를 대상으로 '기만적 영업 행위' 가능성에 대한 조사를 개시했다고 밝혔다. 이들이 운영하는 챗봇이 적절한 의료 자격이나 감독 없이 전문 치료 도구처럼 표현됐다는 혐의다. 켄 팩스턴 미국 법무부 장관은 “AI 플랫폼이 감정적 지지 수단인 것처럼 가장해 취약한 사용자, 특히 아동들이 정당한 정신 건강 치료를 받고 있다고 믿게 만들 수 있다”고 언급했다. 이번 조사는 소비자 대상 AI 서비스를 제공하는 기업들이 사용자, 그 중에서도 미성년자를 선정적 콘텐츠 노출, 챗봇 중독, 개인정보 유출과 같은 위험으로부터 충분히 보호하고 있는지에 대한 우려가 커지는 가운데 진행되고 있다. 텍사스 검찰의 조사는 최근 미국 상원 사법위원회가 메타에 대한 별도의 조사에 착수한 직후 나온 것이다. 앞서 유출된 내부 문서에 따르면 메타의 정책이 아동과의 로맨틱한 대화 챗봇이 나누는 것을 허용했다는 사실이 드러났다. 범죄·테러리즘 소위원회 위원장인 조시 홀리 미국 상원의원은 마크 저커버그 메타 최고경영자(CEO)에게 보낸 서한에서 “이번 조사는 메타의 생성형 AI 제품이 아동 착취나 기타 범죄적 피해를 가능하게 하는 지 여부를 살펴볼 것”이라고 말했다. 또 그는 사회관계망서비스 엑스(X)에서 “빅테크가 돈을 위해 안하는 게 대체 뭐가 있느냐”고 비판하기도 했다. 메타는 아동을 성적으로 대상화하는 콘텐츠를 금지하고 있으며 외신이 보도한 내부 문서는 “우리의 정책과 상충하고 잘못된 것이며 이미 삭제됐다”고 반박했다. 현재 저커버그 CEO는 '개인용 초지능' 구축과 메타를 AI 선두주자로 만들기 위해 수십억 달러를 투자하고 있다. 메타는 자체 언어모델 '라마'와 자체 사회관계망서비스 앱에 통한된 챗봇 '메타 AI'를 개발했다. 그는 메타 챗봇의 치료적 역할 가능성을 공개적으로 언급하기도 했다. 지난 5월 한 팟캐스트에서 “치료사가 없는 사람에게는 앞으로 모두 AI가 있을 것”이라고 말한 바 있다. 메타와 함께 조사를 받는 캐릭터AI는 다양한 페르소나를 가진 챗봇을 구축하고 사용자가 직접 챗봇을 만들 수 있게 하고 있다. 이 안에는 수많은 사용자 제작 치료사 스타일의 챗봇이 포함돼 있는 상황이다. 예를 들어 '심리학자'라는 이름의 챗봇은 지금까지 2억 회 이상 사용됐다. 캐릭터AI는 자사 플랫폼 사용으로 인해 자녀가 실제 피해를 입었다고 주장하는 피해자 가족들로부터 다수의 소송을 당했다. 팩스턴 장관은 메타와 캐릭터AI의 챗봇이 실제 면허가 있는 정신건강 전문가를 사칭하거나 허위 자격을 만들어내거나 기밀을 보호한다고 주장하지만 실제로는 서비스 약관상 대화 내용이 기록돼 타깃 광고나 알고리즘 개발에 활용됐다고 지적했다. 그는 민사 조사 명령을 발부해 두 회사가 텍사스 소비자 보호법을 위반했는지 판단하기 위한 자료 제출을 요구했다. 메타는 “AI임을 명확히 표시하고 있으며 이용자들이 그 한계를 더 잘 이해하도록 돕는다”며 “AI 답변은 사람이 아닌 AI가 생성한 것이라는 면책 조항을 포함하고 있고 이 AI들은 면허가 있는 전문가들이 아니며 필요할 경우 사용자를 적절한 의료·안전 전문가에게 안내하도록 설계돼 있다”고 주장했다. 캐릭터AI는 “자사 플랫폼의 캐릭터는 가상이며 오락 목적일 뿐이라는 점을 분명히 알리고 있다”며 “사용자가 심리학자, 치료사, 의사 등 유사한 단어를 캐릭터 이름에 포함하면 자사는 해당 캐릭터를 어떤 전문적 조언에도 의존해서는 안된다는 경고 문구를 추가한다”고 설명했다.

2025.08.19 10:16박서린 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

LG전자, 작년 매출 '역대 최대'에도 영업익 감소...TV '적자 전환'

벤지오 "한국 반도체, 안전한 AI 핵심 인프라...정책·과학 병행해야"

[2026 주목! 보안기업] 옥타코 "피싱 리지스턴트 인증 선도"

아이폰17 흥행했는데...애플 발목 잡은 이것

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.