• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'법무 AI'통합검색 결과 입니다. (40건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] 로펌 판 바꾸는 AI…리걸테크 200조 시장 열린다

판례 검색과 법령 검토, 문서 분석 등 오랜 시간 변호사의 몫으로 여겨졌던 업무에 인공지능(AI)이 빠르게 스며들고 있다. 사건과 규제가 늘어나며 법률 업무의 복잡성이 증가한 가운데 로펌과 법조계 전반이 AI를 새로운 해법으로 주목하는 분위기다. 18일 업계에 따르면 법률과 기술이 결합한 '리걸테크(Legal-Tech)'는 글로벌 법조계에서 실무의 핵심 인프라로 자리 잡으며 변화를 주도하고 있다. 글로벌 시장조사기관 비즈니스 리서치 인사이트가 발표한 '리걸테크 시장' 보고서에 따르면, 전 세계 리걸테크 시장은 2026년 약 965억8천만 달러(한화 약 141조5860억 원) 규모에서 출발해 2035년까지 연평균 27% 이상의 성장률을 기록하며 약 1470억 달러(한화 약 215조2050억 원) 규모로 확대될 전망이다. 이 같은 성장 배경에는 AI 도입이 가져온 업무 혁신이 자리하고 있다. 톰슨로이터가 발표한 '퓨처 오브 프로페셔널스 리포트(Future of Professionals Report) 2025'를 살펴본 결과, AI 활용을 통해 법률 전문가들은 1인당 연간 약 240시간의 업무 시간을 절감할 수 있을 것으로 분석했다. 특히 계약서 검토와 같은 반복적·정형화된 업무를 중심으로 생산성과 효율성이 크게 개선되며 실제 응답자의 절반 이상이 AI 도입에 따른 실질적인 성과(ROI)를 경험하고 있는 것으로 나타났다. 국내에서도 AI는 로펌의 경쟁력을 가르는 핵심 요소로 부상하고 있다. 김앤장은 법률 용어에 특화된 번역 AI 시스템을 자체 개발하고, 고객 정보 보호를 위해 온프레미스(On-premise) 기반의 AI 솔루션 구축을 추진 중이다. 이와 함께 광장, 지평 등 주요 로펌들도 자체 법률 AI 시스템을 도입하며 업무 효율성과 전문성 강화를 위한 기술 투자를 확대하고 있다. 변화의 흐름은 사법부로도 확산 중이다. 재판 지연 문제를 해소하기 위한 방안으로 방대한 소송 기록을 요약하고 유사 판례를 신속히 추출하는 AI 기반 '재판연구관(로클럭)' 역할의 시스템 도입이 검토되고 있다. 민간 로펌의 기술 경쟁과 맞물리며 국내 법률 환경은 인적 자원 중심에서 AI와의 협업 구조로 전환되는 국면을 맞고 있다. 국내 대형 로펌들도 저마다의 방식으로 AI 역량 강화에 나서며 실무 혁신을 본격화하고 있다. 특히 법무법인 율촌은 리걸AI 기업 BHSN과 협력해 지능형 법률 AI 서비스인 '아이율(AI:Yul)' 구축을 완료하고 올해 1월부터 본격적인 전사 가동에 들어갔다. 아이율은 율촌의 고난도 법률 실무 환경에 맞춰 설계된 지능형 지식 탐색 파트너로, 기존 지식 관리(KM) 시스템 내 방대한 자료를 AI가 맥락적으로 이해하고 분석해 최적의 근거 자료를 신속히 도출해낸다. 또 아이율은 대형 로펌의 엄격한 보안 요구를 충족하기 위해 외부 데이터 전송을 차단한 '폐쇄형 검색 증강 생성(RAG)' 아키텍처를 채택했다. 모든 질의 및 대화 과정은 AI 학습에 일절 활용되지 않아 고객 정보 보안을 철저히 보장하며 사용자 권한별로 최적화된 분석 결과를 제공하는 정교한 데이터 거버넌스를 구현한 것이다. 강석훈 율촌 대표 변호사는 "변호사가 본질적인 역량에 집중할 수 있는 시스템 구축이 중요해졌다"며 AI 도입을 통한 실무 환경의 의미 있는 변화를 예고했다. 법무법인 세종은 글로벌 리걸테크 기업 하비(Harvey)의 생성형 AI 서비스를 도입해 일부 법률 자문 업무에 활용하고 있다. 오픈AI 기술을 기반으로 한 하비는 전 세계 250여 개 기업과 로펌이 사용하는 대표적인 법률 전문 AI로, 다층 보안 환경에서 방대한 문서를 관리하며 고도화된 검색을 통해 문서 내용은 물론 문서 간 관계까지 분석할 수 있다.특히 세종은 검토 자료가 방대한 해외 자문 업무를 중심으로 시범 적용을 진행 중으로, 향후 계약서 초안 작성, 실사 자료 분석·요약 등 활용 범위를 점차 확대할 계획이다. 업계 관계자는 "법률 서비스의 경쟁력이 단순한 인력 규모가 아니라 데이터를 얼마나 정교하게 활용하느냐에 달린 시대가 됐다"며 "AI는 변호사를 대체하는 기술이 아닌 복잡해지는 규제 환경과 방대한 문서 업무 속에서 전문성을 극대화하는 전략적 인프라로 자리 잡을 것"이라고 말했다.

2026.02.18 16:07장유미 기자

[AI 리더스] ICT 규제 대응 '톱티어' 박지연…"태평양 TMT, 복합 리스크 해결 자신"

인공지능(AI)과 플랫폼 산업 확산으로 ICT 규제가 산업 전반으로 확대되면서 로펌 조직 구조도 변화하고 있다. 과거 '사후 처벌'에 그쳤던 규제도 전례 없는 불확실성에 직면하면서 이제 서비스 기획 단계부터 개입하는 '사전 설계' 중심으로 패러다임이 바뀌고 있는 분위기다.법무법인 태평양(BKL)이 기존 TMT(Technology∙Media∙Telecommunication)팀을 올 들어 'TMT그룹'으로 격상한 것도 이 같은 환경 변화를 반영한 조치다. 국내 로펌 최초로 TMT 전담팀을 만든 태평양은 이번에 다시 한 번 조직 체계를 고도화함으로써 국내 2위를 넘어 1위 로펌으로 도약하기 위한 발판 마련에 본격 나섰다. 태평양 TMT그룹을 이끌게 된 박지연 변호사는 13일 지디넷코리아와의 인터뷰에서 "ICT 산업에서는 이제 규제 불확실성 자체가 기업 경쟁력의 중요한 변수로 작용하고 있다"며 "사건 대응을 넘어 사업 설계 단계부터 리스크를 함께 검토하는 조직이 로펌에서도 필요해졌다"고 말했다. 이어 "단순한 법률 해석을 넘어 정책적 가이던스와 비즈니스 구조를 동시에 설계하는 '종합 솔루션'이 로펌의 본업이 됐다"며 "TMT그룹 격상은 단순한 외형 확대가 아니라 복합 규제 환경에 대응하기 위한 전략적 재편"이라고 강조했다. 국내 최초 TMT팀, 그룹 체제로 재편…사건 대응서 '전략 설계'로 태평양은 1980년대 후반 국내 로펌 최초로 TMT 전담팀을 출범시켰다. 당시에는 통신·방송·IT 규제가 산업 전반의 핵심 변수로 부상하던 시기였다. 이후 인터넷과 모바일 환경이 확산되면서 ICT 규제는 플랫폼과 개인정보 영역으로 빠르게 확대됐다. 최근에는 디지털금융·가상자산·AI까지 포함하는 다층적 구조로 진화하면서 개별 법률 이슈가 아니라 복합 규제 환경 전체를 다뤄야 하는 단계에 들어섰다. 이 같은 질적 변화에 대응하기 위해 태평양은 기존 팀 단위 체계에 변화를 줬다. ICT 산업이 복합 규제 환경으로 빠르게 전환되면서 각 사건에 대해 정책 변화, 기술 구조, 시장 전략 등을 각각 따로 자문하지 않고 하나의 의사결정을 중심으로 하는 원스톱 통합 대응 체계를 구축하는 것이 필요하다고 판단해서다.또 TMT 그룹장으로 박지연 변호사(사법연수원 31기)도 선임했다. 박 그룹장은 AI, 방송·통신, 개인정보, 게임, 디지털금융, 블록체인 등 각 영역에서 풍부한 경험과 전문성을 갖춘 박종백(18기), 류광현(23기), 김영수(29기), 강태욱(31기), 이정명(34기), 윤주호(35기), 정상훈(35기), 이수화(변시1회), 이강혜(변시2회), 이준호(변시5회), 오세인(변시5회), 박주성(변시5회) 변호사 등과 함께 업무를 수행하게 됐다. 여기에 글로벌 빅테크 기업 자문 경험을 바탕으로 국제 감각을 갖춘 손지영 외국변호사와 정호영 외국변호사도 참여했다. 특히 박 그룹장은 '2026 챔버스(Chambers Asia-Pacific) TMT 분야 리딩로이어'와 '2025 ALB(Asian Legal Business) 아시아 TMT 우수 변호사 50인'에 선정된 ICT 분야의 대표적인 전문가란 점에서 업계에서도 높은 관심을 받고 있다. 박 그룹장은 "과거에는 방송·통신·IT 기업 중심의 규제 대응이 주된 업무였다"며 "지금은 디지털 전환이 전 산업으로 확산되면서 관련 규제가 모든 산업에 적용되는 환경이 됐다"고 설명했다. 그러면서 "플랫폼, 개인정보, AI 등 여러 규제가 동시에 작동하는 지금 구조에서는 개별 사건 중심 대응만으로는 충분하지 않다"며 "앞으로는 사업 구조 설계 단계부터 법·정책·기술 리스크를 함께 검토해야 한다"고 강조했다. 특히 AI 확산 이후 규제가 사후 제재 중심에서 사전 설계 중심으로 전환되면서 TMT 그룹의 역할 범위도 한층 확대되고 있다. 정부가 가이드라인 제시와 사전 설명회를 통해 기업의 선제적 대응을 요구하는 방향으로 정책 기조를 조정하고 있어서다.박 그룹장은 "AI 기본법처럼 최근 시행과 동시에 가이드라인을 제시하는 방식이 늘고 있다"며 "기업도 기획 단계에서부터 규제 대응을 전제로 의사결정을 해야 하는 환경"이라고 진단했다.이어 "서비스가 이미 시장에 안착한 이후 규제가 들어오면 구조를 바꾸는 데 훨씬 더 큰 비용이 든다"며 "초기 단계에서부터 규제 리스크를 예상하고 대응 시나리오를 준비하는 것이 리스크를 최소화하는 방법"이라고 덧붙였다.그는 이 과정에서 로펌의 역할은 단순히 위험을 경고하는 데 그쳐서는 안 된다고 강조했다. 규제 리스크의 성격과 수준을 구체적으로 분석해 기업이 감수 가능한 범위를 판단할 수 있도록 기준을 제시하는 것이 중요하다고 봤다. 또 규제가 사후적으로 집행되는 구조에서는 기업이 이미 시장에 진입한 이후에야 부담이 현실화되는 만큼, 초기 단계에서의 판단도 더욱 중요해지고 있다고 피력했다. 박 그룹장은 "사후 제재 중심 접근으로는 빠르게 변화하는 AI 환경을 따라가기 어렵다"며 "사전 설계 단계에서 법·정책 검토가 함께 이뤄지는 구조로 전환돼야 한다"고 강조했다. 매트릭스 협업, 고난도 사건서 성과 태평양 TMT 그룹의 차별점으로는 '매트릭스 조직 체계'가 꼽힌다. 태평양은 법인 차원에서 부서 간, 전문가 간 벽을 허무는 협업 구조를 운영 중으로, 특정 부서 중심이 아닌 사건 성격에 따라 변호사·고문·전문위원이 유기적으로 참여하도록 유도하고 있다.실제 TMT 그룹에는 과학기술정보통신부 차관을 역임한 조경식 고문과 과학기술정보통신부 지식재산전략기획단장을 지낸 정완용 고문, 정보통신산업진흥원장 출신 허성욱 고문, 방송미디어통신위원회 출신 황선철 고문, 과학기술정보통신부 출신 조현진 전문위원, 정보통신정책연구원 출신 김득원 전문위원, 금융감독원을 거쳐 빗썸 부사장을 지낸 최희경 전문위원, 한국인터넷진흥원 출신 여돈구 전문위원 등도 함께 참여해 정책·제도 변화에 대한 입체적인 분석과 전략적 자문을 제공 중이다. 덕분에 태평양은 그간 복합 규제 리스크 사건에서 성과를 냈다. 바이낸스의 국내 가상자산시장 진출 자문, 메타 과징금 행정소송, 틱톡 개인정보위원회 조사 대응 등 고난도 사건에서 매트릭스 조직의 협업 역량을 발휘해 주목받았다. 이러한 성과에 힘입어 태평양은 지난해 총 매출 4702억원을 기록하며 법무법인 광장을 꺾고 로펌업계 2위로 올라섰다. 박 변호사는 "우리는 파트너 변호사들이 업계 동향과 주요 쟁점을 실시간으로 공유한다"며 "개인의 판단이 아니라 집단적 논의를 통해 전략을 정리하는 구조가 TMT 그룹의 핵심 경쟁력"이라고 말했다. 이어 "담당 파트너가 큰 방향만 설정하는 것이 아니라 규제기관 대응과 주요 서면 작성까지 직접 관여하는 점도 차별화 요소"라며 "서비스 구조와 기술 작동 방식까지 정확히 이해해야 실효성 있는 자문이 가능한 만큼, TMT 그룹처럼 정책·기술 이해를 함께 갖춘 협업 구조가 필요하다"고 덧붙였다.또 그는 변호사가 어디까지 기술을 이해해야 하는지에 대해서도 구체적인 기준을 제시했다. 특히 AI·플랫폼 분야에서는 데이터 흐름과 시스템 설계 방식에 따라 법적 평가가 달라질 수 있다는 점을 강조했다.박 그룹장은 "변호사는 서비스가 어떤 구조로 작동하고, 데이터가 어떤 경로로 수집·처리·활용되는지를 정확히 이해해야 한다"며 "이를 통해 실제 위법 리스크를 제대로 진단할 수 있을 것"이라고 밝혔다. 가상자산·사이버 리스크, 전담 조직으로 선제 대응 TMT 그룹 내 디지털자산TF와 사이버침해 대응센터 신설도 이러한 복합 규제 환경에 대응하기 위한 조치다. 디지털자산은 제도권 편입이 진행되고 있지만 정책 방향이 빠르게 변화하는 영역으로, 규제 불확실성이 큰 분야로 꼽힌다. 사이버 침해 역시 단순한 법률 문제에 그치지 않는다. 사고 발생 시 규제기관 조사 대응은 물론, 평판 관리와 대정부·국회 대응까지 동시에 요구되는 고위험 사안으로 확장되고 있다.이에 태평양은 TMT 그룹 아래 각각의 전문성 강화를 위해 디지털금융, 가상자산을 전담하는 '디지털자산TF'와 해킹∙정보유출 등 사이버 보안 리스크에 대응하는 '사이버침해 대응센터'의 수장으로 각각 강태욱 변호사, 윤주호 변호사를 선임했다. 이를 통해 여러 이슈가 결합된 복합 위기 상황에서도 신속하고 일원화된 대응이 가능하도록 통합 대응 체계를 갖췄다. 박 그룹장은 "가상자산은 규제 체계가 정립되는 과정에 있고, 사이버 침해는 기업 존립과 직결되는 리스크로 부상했다"며 "사건 발생 이후 대응뿐 아니라 사전 준비와 통합 관리 체계가 필요하다"고 말했다. 이어 "특히 사이버 침해는 조사 대응만으로 끝나는 사안이 아닌, 규제기관 대응과 언론 대응, 향후 서비스 구조 정비까지 동시에 고려해야 하는 복합 이슈"라며 "이처럼 여러 리스크가 동시에 작동하는 영역일수록 개별 사건 대응이 아니라 통합적인 전략 수립이 중요하다"고 덧붙였다.또 그는 대형 사고 중 상당수가 접근 통제 미비, 내부 관리 소홀 등 기본적인 통제 장치의 허점에서 비롯된다는 점도 지적했다. 이에 보안을 단순 비용이 아닌 기업의 지속 가능성과 직결된 필수 투자로 인식해야 한다고 강조했다. 박 그룹장은 "실제 사고를 보면 기본적인 보안 조치 미비나 내부 관리 부실에서 비롯되는 경우가 적지 않다"며 "보안은 비용이 아니라 기업의 신뢰와 존립을 지키기 위한 최소한의 투자라는 인식 전환이 필요하다"고 말했다. 이어 "사고가 발생한 뒤 대응 비용과 평판 훼손까지 감안하면, 사전 투자와 내부 통제 강화가 오히려 훨씬 합리적인 선택"이라고 덧붙였다. "복합 규제 시대, 기업 전략 파트너로 도약" 이를 바탕으로 박 그룹장은 태평양 TMT그룹을 단순한 규제 대응 조직이 아닌 '전략 파트너'로 자리매김하겠다는 구상을 밝혔다. AI·플랫폼·디지털금융 등 규제가 중첩되는 환경에서는 법령 해석을 넘어 정책 기조와 사업 구조를 종합적으로 판단해야 한다는 점에서다. 그는 "ICT 규제는 고정된 체계라기보다 산업과 상호작용하며 계속 변화하는 성격이 강하다"며 "완결된 법을 적용하는 것이 아니라 형성 과정에 있는 제도를 어떻게 해석하고 대응할지 판단하는 영역이 많다"고 말했다. 이어 "이럴수록 단편적인 자문이 아니라 사업 구조 전반을 함께 검토하는 접근이 필요하다"고 강조했다. 특히 국내 규제와 글로벌 규제가 충돌하는 사례가 늘고 있는 점도 기업 부담을 키우는 요인으로 지목했다. 글로벌 빅테크 기업의 입장에서 플랫폼 규제, 개인정보 규제 수준 차이 등은 단순한 법률 문제를 넘어 전략적 판단을 요구하고 있다고 봤다. 박 그룹장은 "글로벌 규제와의 충돌뿐 아니라 국내에서도 규제기관마다 집행 기준이 달라 기업들이 혼란을 겪는 경우가 적지 않다"며 "유사한 사안을 두고도 적용 법리와 제재 수위가 달라지는 상황은 기업 입장에서 예측 가능성을 떨어뜨리는 요인"이라고 지적했다.이어 "이 과정에서 법률적 판단과 정책적 전망을 함께 제시하는 것이 로펌의 역할"이라며 "규제 리스크를 통제 가능한 범위로 관리하면서도 사업 기회를 살릴 수 있는 해법을 제시하는 것이 TMT 그룹의 목표"라고 부연했다. 또 그는 앞으로 TMT 그룹을 통해 단순 사건 대응을 넘어 규제 환경 변화에 대한 선제적 분석 기능도 강화할 계획이라고 밝혔다. 이를 위해 법령 개정 동향과 집행 기조를 상시 모니터링하고, 산업계의 애로사항을 정책 논의 과정에 반영하는 역할까지 확대하겠다는 구상이다.다만 그는 사건 발생 직후 여론에 밀려 규제가 급격히 강화되는 이른바 '반작용 입법'에 대해선 우려를 표했다. 산업에 미칠 파급효과를 충분히 검토하지 않은 채 강한 규제가 도입될 경우 오히려 시장 위축이나 규제의 사문화로 이어질 가능성도 있다고 봐서다. 이에 단기 대응이 아니라 큰 흐름을 보는 입법 설계가 필요하다고 강조했다. 박 그룹장은 "AI 시대에는 선례가 충분히 축적되지 않은 영역이 많다"며 "결국 규제 방향을 읽고 복합 리스크를 종합적으로 판단할 수 있는 조직이 경쟁력을 갖게 될 것"이라고 말했다. 이어 "TMT 그룹은 규제와 산업을 연결하는 접점에서 기업이 방향을 설정할 수 있도록 돕는 역할을 앞으로 더 강화해 나가겠다"고 마무리했다.

2026.02.13 10:16장유미 기자

"AI 기본법, 예외 조항 구체화 필요…기업, 적용 여부 면밀히 따져봐야"

최근 시행된 인공지능(AI) 기본법을 두고, 보조적 도구로 사용된 AI의 예외 조항과 예술·창의적 표현물의 비가시적 표현 범위가 어느 정도인지를 구체화해야 한다는 법률적 제언이 나왔다. 기업은 국가별로 상이한 법안을 모두 고려해야 하는 부담을 안고 있는 만큼, AI 기본법을 부문별하게 따르기보다는 자사의 법안 적용 여부를 명확히 판별해야 한다고 역설했다. 한국인터넷기업협회와 법무법인 율촌은 11일 서울 서초구에서 'AI 기본법 시행에 따른 기업의 대응전략 간담회'를 열었다. 이번 간담회는 AI 기본법의 법률적 불명확성 등으로 준비에 어려움을 겪는 기업들의 대응 방안 수립과 향후 전략 수립에 필요한 논의를 제공하기 위해 마련됐다. 김정원 율촌 고문, 김선희 변호사, 김명훈 변리사, 이용민 변호사 등이 참석했다. 지난달 22일부터 시행되기 시작한 AI 기본법은 생성형 AI가 만든 결과물에 AI 생성물임을 표시하는 'AI 생성물 표시제'가 도입된 것이 핵심이다. 적용 대상은 AI 기술을 제공하는 사업자를 포함해 영리 목적으로 서비스를 운영하거나 콘텐츠를 게시하는 경우가 모두 해당된다. “올해 AI 유통 과정에서 만들어질 법안에도 대응해야” 생성형 AI와 고영향 AI 위주의 AI 기본법 실무적 쟁점에 대한 논의를 전개한 김 변호사는 해당 법안에서 규정하는 AI사업자와 이용자의 차이가 비교적 명확해졌다며 “올해는 AI 기본법 뿐만 아니라 유통 과정에서 만들어질 법안에 대한 준비도 필요하다”고 강조했다. AI기본법의 AI 생성물 표시제 가운데서도 AI가 보조적 도구로만 사용됐을 때의 예외 조항에 관한 논의가 필요하다는 점을 피력했다. 이행 방법에서는 예술·창의적 표현물의 비가시적 표현 범위가 어디까지인지를 명확히 해야한다고 당부했다. 고영향 AI의 경우 대출 심사 부분에서 어떤 것이 AI를 활용한 사업에 들어가는지 그 영역이 불명확하고, 개인의 권리 의무 관계에 중대한 영향을 미치는 판단 또는 평가의 범위가 현재 채용·대출 등에서 얼마든지 넓어질 수 있다는 점을 꼬집었다. 고영향 AI 이행 방법과 관련해서는 “개발 사업자와 이용 사업자 간 역할과 책임 분배도 명확히 해야한다”고 덧붙였다. 시정 명령 이행 대상 혼란 불러올 수도…AI 시스템 유형 파악도 동반돼야 김 변리사는 고영향 생성형 AI 고지 의무에 대한 시정 명령이 내려지면 기업 입장에서는 과태료보다도 개발 사업자와 이용 사업자 중 누가 이를 이행해야 하는지에 대한 혼란이 생길 수 있다고 봤다. 또 기업이 AI 기본법 관련 컴플라이언스를 구축하는 과정에서 미국, 유럽연합(EU), 한국 등 국가별로 파편화된 법안을 모두 고려해야 하는 어려움이 있다고 설명했다. 그러면서 AI 기본법을 막연하게 준수해야 한다는 인식보다는 “우리 회사 제품이나 서비스가 적용이 되냐부터 살펴봐야 한다”고 말했다. 처음에는 이용 사업자라는 인식을 갖고 있더라도, 파인튜닝을 하고 기능을 업데이트하면서 개발 사업자로 정체성이 변모할 수 있다는 것이다. 김 변리사는 인공지능 시스템 유형 파악도 동반돼야 한다고 부연했다. AI 기본법, 서비스 구현 방식 따라 사용자·이용자 적용 달라져 현장에서는 실무적인 영역에서 AI 기본법의 사용자·이용자 적용 여부를 질문도 나왔다. 김 변리사는 “AI 서비스가 실제로 어떻게 구현돼 있느냐에 따라 달라진다”며 “콘텐츠 추천이면 내부적으로 이용하는 것으로 보여질 여지가 있고, 외부에 서비스를 제공한다면 달라질 수 있다”고 답했다. 김 변호사는 “AI 기본법도 있지만, 개인정보보호법도 봐야 한다”며 “이용자의 정보로 추천 서비스를 제공할 수 있는지, 제대로 된 법적 근거가 잘 갖춰져 있는지를 들여다봐야한다”고 언급했다.

2026.02.11 18:04박서린 기자

[현장] "美·中 AI 개발 자금, 韓보다 100배 커…국제 공동연구 필수"

"현재 미국과 중국은 한국보다 인공지능(AI) 연구개발(R&D)에 100배 더 많은 자금을 투자하고 있습니다. 단일 국가 중심 R&D 구축만으로는 지속 가능한 발전이 어렵다는 설명입니다. 우리는 AI 기술과 인프라 논의 출발점을 기술이 아닌 국제 협력 구조에서 찾아야 합니다." 안희철 법무법인 DLG 대표변호사 겸 인간:지능연구소(H:AI) 고문은 31일 서울 여의도 FKI 빌딩에서 열린 'AI 시대, 지속가능한 디지털 인프라 미래'에서 AI 기술 경쟁력 확보를 위해 국제 협력 구조가 절실하다며 이같이 밝혔다. 안 변호사는 국가 간 AI 산업 예산과 인력 격차가 극단적으로 벌어진 상태라고 지적했다. 그는 "미국이나 중국은 동시에 수십, 수백 개 연구 분야에 동시 투자가 가능하다"며 "반면 한국은 선택과 집중 외에는 현실적 대안이 제한적인 구조"라고 말했다. 그는 "AI 산업을 특정 분야 하나에 집중해 경쟁력 확보하기 어려운 특성을 지닌다"고 언급했다. 이어 "어떤 기술 영역이 핵심이 될지 사전 예측이 어렵다"며 "단일 분야 집중은 나머지 기술 가능성을 포기하는 결과로 이어질 수 있기 때문"이라고 설명했다. 안 변호사는 한국이 AI R&D 발전을 위해 국제협력을 적극 활용해야 한다고 주장했다. 한국을 비롯한 일본, 대만, 싱가포르 등이 연구를 공동 수행하고, 그 성과를 참여국 간 공유하는 식이다. 이를 위해 각국 정부는 개별적으로 배정한 R&D 예산을 함께 투입하고, 표준화된 절차에 따라 연구 과제를 공동 설계·수행하는 구조다. 그는 "국제 협력은 예산, 인력, 연구 성과를 공동으로 설계하고 활용하는 방식"이라며 "단순 교류를 넘어선 산업 인프라 구축까지 할 수 있다"고 강조했다. 안 변호사는 한국은 국제 공동 연구 성과가 상대적으로 낮다고 지적했다. 한 보고서에 따르면 지난해 기준 한국의 국제 공동 연구 성과는 국제협력개발기구(OECD) 주요국 가운데 20위권에 머무른 상태다. 그는 "절대적인 연구 성과는 상위권이지만 국제 협력을 통한 성과 창출은 부족한 실정"이라고 짚었다. 또 그는 는 국내 법·제도가 국제 공동 연구를 실질적으로 뒷받침하기에는 미흡한 상태라고 진단했다. 안 변호사는 "국내과학기술기본법과 국가연구개발혁신법에 관련 규정이 있지만 성과 귀속을 비롯한 지식재산권 처리, 안보 기술 보호, 예산 집행 구조 등 핵심 쟁점은 구체화되지 않았다"고 설명했다. "연구자가 국제 공동 연구 집중할 '표준 규칙' 시급" 안 변호사는 국제 공동 연구를 제도적으로 뒷받침하는 유럽연합(EU)의 '호라이즌 유럽'을 모범 사례로 꼽았다. 국제 협력을 선언에 그치지 않고, 연구 전 과정에 적용되는 표준 규칙으로 제도화했다는 점에서다. 호라이즌 유럽은 공동 연구 착수 단계부터 기술과 특허를 어느 범위까지 공개할지, 해당 기술을 어떻게 보호할지를 사전에 명확히 규정한다. 연구 결과가 도출된 이후에는 성과물의 소유권을 국가별로 개별 보유할지, 공동으로 소유할지까지 계약과 규칙으로 정리한다. 연구 성과를 상용화하거나 특허를 유동화할 경우의 수익 귀속 기준도 미리 정해진다. 공동 연구 과정에서 분쟁이 발생할 가능성을 고려해 분쟁 해결 절차와 관할 구조 역시 제도적으로 마련됐다. 안 변호사는 "현재 호라이즌 유럽에 참여하는 연구기관·기업들은 연구 자체에 집중할 수 있다"며 "한국 일부 연구기관과 기업도 해당 프로그램에 참여해 동일한 규칙 아래에서 국제 공동 연구를 수행하고 있다"고 설명했다. 그는 호라이즌 유럽 외 국제 공동 연구에서는 이런 통일된 기준이 거의 없는 상황이라고 지적했다. 연구 주제 설정부터 역할 분담, 성과 처리, 권리 배분까지 모든 과정을 개별 협의로 시작해야 해 연구 진입 장벽이 높다는 설명이다. 안 변호사는 "국내에선 국가 예산을 활용한 R&D가 국제 공동 연구에 적용되지 않거나 제한되는 사례가 적지 않다"며 "국가 핵심 기술과 첨단 기술을 안보로 분류해 국제 공동 연구를 제한하는 기준 역시 명확히 정립되지 않은 상태"라고 말했다. 이어 "AI처럼 국가 예산의 한계가 분명한 분야일수록 국제 공동 연구는 선택이 아니라 필수"라고 강조했다.

2026.01.31 18:01김미정 기자

AI 규제 시대 본격화…태평양, TMT그룹으로 판 키운다

급변하는 정보통신기술(ICT) 산업 환경에서 인공지능(AI), 플랫폼 규제, 개인정보보호, 디지털금융, 가상자산, 사이버보안 등 복합적인 법률·규제 이슈가 동시에 확산되고 있는 가운데 법무법인 태평양(BKL)이 조직 개편을 통해 기업 수요 공략에 나선다. 태평양은 기존 TMT 팀을 'TMT 그룹'으로 확대 개편한다고 30일 밝혔다. 최근 ICT 산업이 복합 규제 환경으로 빠르게 전환되면서 각 사건에 대해 정책 변화, 기술 구조, 시장 전략 등을 각각 따로 자문하지 않고 하나의 의사결정을 중심으로 하는 원스톱 통합 대응 체계를 구축하는 것이 필요하다고 판단해서다. TMT(Technology∙Media∙Telecommunication) 팀은 1980년대 후반 태평양이 국내 로펌 최초로 신설한 전담 조직으로, 그간 ICT 분야 규제 대응의 '퍼스트 무버(First Mover)'로서 시장을 선도해 왔다. 또 2000년대 융·복합 산업의 확산과 함께 국회, 행정부, 지방자치단체를 아우르는 규제 대응 역량을 입증했다. 더불어 과학기술정보통신부, 방송미디어통신위원회, 개인정보위원회 등 주요 규제기관과의 면밀한 협의를 통해 조사 및 규제 대응 사건에서 최선의 결과를 이끌어 내는 등 국내 최고 수준의 전문성을 인정받아 왔다. 특히 태평양은 국내 주요 이동통신사와 방송사뿐만 아니라 네이버, 카카오, 쿠팡 등 빅테크 기업을 밀착 대리하며 국내 ICT 산업의 기틀을 마련해 왔다. 또 메타, 바이트댄스(틱톡), 넷플릭스 등 글로벌 온라인 플랫폼을 비롯해 퀄컴, 알리익스프레스, 화웨이 등 전 세계 ICT 시장을 주도하는 주요 글로벌 기업들을 대리하며 고난도의 사건들을 성공적으로 수행했다. 이 같은 경험을 바탕으로 태평양은 TMT 그룹을 통해 기업이 직면한 규제 리스크를 사후적으로 대응하는데 그치지 않고 사업 전략 단계부터 법률∙정책∙제도∙비즈니스를 동시에 설계하는 '전략적 파트너' 역할을 수행한다는 방침이다. 또 그룹장은 박지연 변호사(사법연수원 31기)가 맡아 AI, 방송·통신, 개인정보, 게임, 디지털금융, 블록체인 등 각 영역에서 풍부한 경험과 전문성을 갖춘 박종백(18기), 류광현(23기), 김영수(29기), 강태욱(31기), 이정명(34기), 윤주호(35기), 정상훈(35기), 이수화(변시1회), 이강혜(변시2회), 이준호(변시5회), 오세인(변시5회), 박주성(변시5회) 변호사 등과 함께 업무를 수행하게 된다. 여기에 글로벌 빅테크 기업 자문 경험을 바탕으로 국제 감각을 갖춘 손지영 외국변호사와 정호영 외국변호사도 참여한다.특히 박 변호사는 '2026 챔버스(Chambers Asia-Pacific) TMT 분야 리딩로이어'와 '2025 ALB(Asian Legal Business) 아시아 TMT 우수 변호사 50인'에 선정된 ICT 분야의 대표적인 전문가란 점에서 높은 관심을 받고 있다. 또 TMT 그룹에는 과학기술정보통신부 차관을 역임한 조경식 고문과 과학기술정보통신부 지식재산전략기획단장을 지낸 정완용 고문, 정보통신산업진흥원장 출신 허성욱 고문, 방송미디어통신위원회 출신 황선철 고문, 과학기술정보통신부 출신 조현진 전문위원, 정보통신정책연구원 출신 김득원 전문위원, 금융감독원을 거쳐 빗썸 부사장을 지낸 최희경 전문위원, 한국인터넷진흥원 출신 여돈구 전문위원 등도 함께 참여해 정책·제도 변화에 대한 입체적인 분석과 전략적 자문을 제공한다.이 외에도 태평양은 TMT그룹의 전문성 강화를 위해 디지털금융, 가상자산을 전담하는 '디지털자산TF'와 갈수록 고도화되는 해킹∙정보유출 등 사이버 보안 리스크에 대응하는 '사이버침해 대응센터'도 조직했다. 이를 통해 여러 이슈가 결합된 복합 위기 상황에서도 신속하고 일원화된 대응이 가능하도록 통합 대응 체계를 갖췄다.박지연 태평양 TMT그룹장은 "ICT 산업은 기술 변화 속도만큼 규제 환경도 빠르게 진화하고 있다"며 "태평양 TMT그룹은 사건 대응에 그치지 않고 정책 방향과 시장 구조까지 함께 분석해 기업의 사업 전략 단계부터 리스크를 설계하는 파트너가 되겠다"고 말했다. 이어 "AI 시대의 복합 규제 환경 속에서 기업이 신뢰할 수 있는 'ICT 종합 컨설팅 허브'로서 역할을 강화해 나가겠다"고 덧붙였다.

2026.01.30 10:34장유미 기자

[기고] 인공지능을 규율한다는 것의 의미

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 새로운 기술을 다루는 법은 언제나 늦거나 빠르다. 너무 늦으면 이미 현실을 따라잡지 못하고, 너무 빠르면 아직 정의되지 않은 위험을 과도하게 상정하게 된다. 인공지능(AI)을 둘러싼 최근 제도 설계 역시 이 오래된 딜레마 위에 놓여 있다. 현재 작동 중인 AI 관련 기본 규범은 즉각적인 통제를 목표로 하기보다 일정 기간 제도의 작동 가능성을 점검하는 방식을 선택했다. 이는 단순한 행정 편의나 정치적 타협 결과로 보기 어렵다. 오히려 기술 특성을 전제로 한 선택에 가깝다. AI는 고정된 제품이 아니라 학습과 적용을 통해 끊임없이 성격이 변하는 체계라서다. 이런 기술을 전통적인 규제 방식으로 포섭하면 규범은 곧바로 현실과 어긋날 위험을 안게 된다. 무엇이 위험한지, 누가 책임을 져야 하는지, 어느 단계에서 개입해야 하는지에 대한 사회적 합의가 아직 충분히 축적되지 않은 상태에서 강한 집행을 전제로 한 규칙을 설계하는 것은 오히려 혼란을 키울 수 있다. 문제는 이 과도기가 '아무 일도 하지 않는 시간'으로 오해될 가능성이다. 실제 현장에서는 제도가 존재함에도 불구하고, 무엇을 기준으로 준비해야 하는지 판단하지 못하는 경우가 적지 않다. 이는 규범이 추구하는 방향이 불분명해서라기보다 추상적 원칙이 실무 언어로 충분히 전환되지 않은 탓이다. 법은 가치와 방향을 제시할 수 있지만 개별 서비스의 구조까지 설명해 주지는 않는다. 예컨대 위험을 어떻게 평가할 것인지, 자동화된 판단 과정에서 인간의 개입은 어느 수준까지 요구되는지, 이용자에 대한 설명은 어떤 방식으로 이행돼야 하는지와 같은 문제는 법 조문만으로 해결되기 어렵다. 결국 해석과 적용의 영역이 필연적으로 발생한다. 이 지점에서 중요한 것은 처벌 가능성이 아니라 판단 예측 가능성이다. 기업이나 개발 주체가 가장 어려움을 느끼는 것은 규제가 존재한다는 사실 그 자체가 아니다. 어디까지가 허용되고 어디부터가 문제 되는지 가늠하기 어렵다는 데 있다. 기준이 명확하지 않으면 혁신은 위축되거나 반대로 무책임하게 확장된다. 현재 제도 운용 국면은 규칙을 집행하는 단계라기보다 규칙이 실제 작동할 수 있게 다듬는 과정으로 이해하는 편이 타당하다. 행정 해석, 사례 축적, 산업계와의 상호작용을 통해 원칙이 구체화되지 않으면 이후 강한 집행은 정당성을 확보하기 어렵다. 동시에 이 시기는 기업 내부 준비가 요구되는 시점이기도 하다. 외부 강제력이 약하다고 해서 책임까지 유예되는 것은 아니다. 데이터 출처와 관리 방식, 알고리즘 검증 절차, 결과에 대한 설명 가능성 등은 사후 대응이 아니라 사전 설계 문제다. 이런 점검은 규제를 피하기 위한 방어 수단이 아니라, 기술에 대한 신뢰를 확보하기 위한 최소 조건에 가깝다. 종종 규범은 혁신 반대편에 서 있는 것으로 인식된다. 그러나 명확한 기준이 없는 환경이 반드시 자유로운 환경을 의미하지는 않는다. 오히려 불확실성이 클수록 의사결정 비용은 증가하고 책임은 개인에게 과도하게 전가된다. 합리적인 규칙은 위험을 줄이는 동시에 기술이 사회 안에서 수용될 수 있는 경로를 마련한다. AI를 둘러싼 제도는 지금 질문을 던지고 있다. 얼마나 빨리 통제할 것인가가 아닌, 어떤 방식으로 책임을 배분할 것인가에 대한 질문이다. 기술 속도를 억제하는 것이 목적이 아니라 그 속도가 사회적 신뢰와 충돌하지 않도록 조정하는 것이 핵심이다. 이 과정을 통해 마련된 기준은 향후 집행의 출발점이 될 것이다. 그 기준이 경직된 잣대가 될지, 합리적인 신호가 될지는 지금의 제도 운용과 준비에 달렸다. AI를 다룬다는 것은 결국 기술을 규율하는 일이 아니라 기술을 사용하는 우리의 방식을 설계하는 일이기 때문이다.

2026.01.29 16:19정상훈 컬럼니스트

[AI기본법 시행①] 韓, '세계 최초' 타이틀…"해외 기업과 역차별 없어야"

한국 정부가 전 세계 처음으로 인공지능(AI)기본법 시행을 앞두면서 업계 안팎에서 기대와 우려가 동시에 나오고 있다. 제도가 비교적 무리 없이 안착할 것이라는 전망과 급속한 AI 기술 발전 속도에 맞춰 충분한 준비가 이뤄졌는지를 두고 엇갈린 평가가 공존하고 있다. 19일 과학기술정보통신부에 따르면 AI기본법은 2024년 12월 26일 국회 본회의를 통과한 뒤 지난해 1월 21일 공포됐다. 법 시행 시점은 공포 후 1년이 지난 이달 22일로 예정됐다. 전문가들 사이에서는 AI기본법이 단순 규제를 넘어 국내 기업이 해외 시장으로 확장하는 과정에서 신뢰 표준이 될 수 있다는 점을 높게 평가하고 있다. 글로벌 규제 환경 속에서 일정한 법적 틀을 갖추는 것이 오히려 산업 경쟁력에 도움이 될 수 있다는 입장이다. 일각에서는 유럽연합(EU)이나 미국과 달리 한국이 AI기본법 조기 시행을 선택한 배경에 우려를 표하고 있다. 준비 기간이 EU에 비해 지나치게 짧다는 지적이 잇따르고 있어서다. 실제 EU는 한국보다 법 제정 논의를 먼저 시작했지만, 실제 적용 시점은 내년 8월이다. EU집행위원회는 지난달 규제 부담을 완화하는 내용을 담은 '디지털 간소화' 방안도 내놨다. 특히 유럽에선 과도한 규제가 AI 산업 경쟁력을 약화할 수 있다는 우려가 지속적으로 나왔다. 특히 미국 빅테크 기업들이 규제 완화를 요구해 온 점도 EU 정책 기조 변화에 영향을 미쳤다는 분석이 나온다. 이런 흐름 속에서 정부가 '세계 최초 AI법'이라는 타이틀에 지나치게 집중한 나머지 현실을 충분히 반영하지 못한 채 법을 서둘러 추진한 것 아니냐는 우려가 나온 것이다. 법무법인 원 오정익 변호사는 AI기본법이 이미 통과돼 시행을 앞둔 만큼 이를 부정적으로만 평가하기는 어렵다고 밝혔다. 그는 "AI기본법은 처벌·제한뿐 아니라 일정한 기준점을 제시하는 역할을 할 것"이라며 "법이 산업에 미치는 영향을 복합적으로 봐야 한다"고 주장했다. 이어 "법 시행 이후가 더 중요하다"며 "신속한 개정과 조정, 보완이 상시적으로 이뤄질 수 있어야 한다"고 강조했다. 그러면서 "기존 법제처럼 경직된 운영이 아니라 기술 변화 속도에 맞춘 유연한 제도 운용이 중요할 것"이라고 내다봤다. AI기본법, 해외 기업에 무용지물?…"역차별 없어야" 현재 국내 업계에선 AI기본법이 한국 시장 진출한 해외 기업에는 무용지물일 수 있다는 우려가 나오고 있다. 국내 기업은 법을 어기면 AI기본법에 따라 처벌받지만 외국 AI 기업에 국내법을 바로 적용하기 어려울 수 있다는 이유에서다. 법무법인 태평양 강정희 변호사는 AI기본법에 일정 요건을 충족하는 해외 AI 기업에도 국내 대리인 지정 의무를 부과한 점에 주목했다. 강 변호사는 "규제 대상을 국내 기업에 한정하지 않고 역외 사업자까지 포함할 수 있는 집행 기반을 마련했다는 점에서 긍정적으로 본다"고 밝혔다. 이어 "해외 기업도 한국에서 고영향 AI와 고성능 AI에 대한 위험을 관리할 수 있도록 위험 식별·완화, 위험관리체계구축 등 거버넌스 의무까지 부과한 점도 지켜봐야 한다"며 "국내외 기업 관계없이 AI 위험을 관리하는 구조를 제도화했다는 점에서 규제 질적 전환으로 볼 수 있다"고 말했다. 국내 업계에서는 해외 AI 기업이 국내에 대리인을 지정해도 역차별은 발생할 수 있다고 우려하고 있다. 익명을 요청한 한 국내 AI 업계 관계자는 "해외 기업서 지정된 국내 대리인이 실무 관계자가 아니면 말이 다르다"며 "해당 기업 서비스나 보안상 문제가 발생할 경우 우리 정부가 대리인에 책임을 묻기도 곤란할 것"이라고 지적했다. 이어 "특히 빅테크 솔루션에 동시다발적 오류가 국내외서 발생할 경우, 이는 국내 AI법만으로 보상을 요구할 수도 없는 상황"이라고 말했다. 그러면서 "국내 기업이 AI 제품 개발·출시 과정에서 과도한 규제로 인해 역차별받아선 안 될 것"이라고 재차 당부했다. 오정익 변호사는 AI기본법 의무 부담을 기업에게만 넘기는 방식은 지양해야 한다고 주장했다. 오 변호사는 "국내외 기업 넘어서 국가 자체가 의무를 수행하는 방법도 효율적이다"고 설명했다. 그러면서 "AI 시대에 국가가 자국 기업이 글로벌 AI 생태계에서 기술을 잘 구현할 수 있도록 보조하는 방식으로 가야 한다"고 덧붙였다. "AI기본법 대응 출발점은 '고영향 AI 판단'" AI기본법을 앞두고 국내 업계도 철저한 준비가 필요하다는 의견이 이어졌다. 특히 AI기본법이 강조하는 고영향 AI나 일정 규모 이상 AI 시스템이 이에 해당하는지 확인부터 해야 한다는 설명이다. 전문가들은 물리·현실적 영역에 직접 영향을 미치는 AI 제품과 서비스가 늘고 있다는 점을 중요 변수로 꼽았다. 오정익 변호사는 "AI 시스템이 핵심 기능을 수행하는 제품과 로봇, 서비스가 늘고 있다"며 "기존 챗봇 중심 AI 활용과는 전혀 다른 국면에 접어들었다"고 진단했다. 이어 "AI 안전성과 신뢰성이 산업 전반 핵심 요건으로 부상한 이유"라며 "AI기본법이 강조하는 안정성·신뢰성·투명성 원칙을 최우선 기준으로 삼아야 한다"고 분석했다. 그러면서 "기업은 솔루션이 고영향 AI나 일정 규모 이상의 AI 시스템에 해당하는지 여부를 우선 봐야 한다"며 "이에 해당할 경우 위험관리 체계와 이용자 보호 조치가 법 기준에 부합하는지까지 점검해야 한다"고 설명했다. 오 변호사는 특히 공공기관을 고객으로 둔 기업은 영향평가 준비 여부를 반드시 신경써야 한다고 당부했다. 그는 "시행령과 가이드라인에서 제시하는 방식에 맞게 고지·표시가 이뤄지고 있는지도 점검해야 한다"며 "향후 사업 운영 과정에서 발생할 수 있는 법적 리스크를 선제적으로 관리할 수 있는 방법"이라고 강조했다. 강정희 변호사 역시 AI기본법을 일회성 요건 충족이 아닌 주기적 점검과 개선을 전제로 한 시스템으로 봐야 한다고 주장했다. 강 변호사는 "국내 산업계는 고영향 AI 판단 체크리스트와 내부 가이드라인을 통해 투명성 의무 적용 여부와 예외 해당 여부를 우선 점검해야 한다"며 "의무 대상에 해당할 경우 이를 이행할 수 있는 내부 시스템을 갖추는 것이 필요하다"고 짚었다. 강 변호사는 에너지·보건의료·채용·대출 심사 등 고영향 AI 적용 가능성이 높은 분야 기업은 자체 AI가 생명·안전·권리에 영향을 미치는지 여부를 판단할 수 있는 내부 분류 체계를 마련해야 한다고 권장했다. 강 변호사는 "시스템이 고영향 AI로 분류될 경우 위험 식별·관리 체계, 이용자 보호 방안, 문서 작성과 보관을 포함한 운영·관리·감독 체계를 선제적으로 정비해야 한다"고 말했다.

2026.01.19 16:53김미정 기자

[기고] 눈 앞에 다가온 AI기본법, G3 향한 이정표가 되기를

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 기본법이 2026년 1월 22일 시행을 앞두고 있다. AI 산업 육성과 안전성 확보라는 두 마리 토끼를 잡겠다는 목표를 가지고 21대 국회에서부터 시작된 논의가 22대 국회에서 그 성과를 거둔 이후, 이제 그 시행을 앞두고 있다. 글로벌 AI 패권 경쟁이 국가 대항전 양상으로 치닫는 현시점에서 이번 법 시행이 단순히 대한민국이 AI 사용량에서 1위를 달리는 국가가 아니라 AI 산업을 주도하는 국가로 나아가기 위한 하나의 이정표가 되기를 간절히 바란다. 이번 AI 기본법 시행의 가장 큰 의미는 AI 산업 육성을 위한 법적 근거가 만들어졌다는 점과 AI 산업 규제에 대한 예측가능성이 부여됐다는 점이다. 법적인 관점에서 보면, 산업지원의 경우에는 예산만 확보됐다면 그 근거 법률이 필요하지 않다고 볼 수 있지만, 산업 육성책을 체계적으로 가져갈 수 있는 밑그림인 법률이 있다는 것은 큰 의미를 갖는다. 이런 점에서 AI기본법은 AI 산업 진흥에 있어서 큰 획을 그은 것으로 볼 수 있다. AI 산업이 본 궤도를 타지 않은 시점에 AI 산업에 대한 규제는 시기상조라는 논리도 있다. 주위를 둘러보면 너도나도 AI 서비스를 이용하고 있는 지금 시점에 규제의 틀거리를 마련해 시행하는 건 필연이라고 생각된다. 이제 명확한 법적 근거가 마련됨에 따라 기업들은 고영향 AI 등에 관해 필요한 조치를 취하고, 법적 안정성에 근거해 오히려 과감한 투자를 단행할 수 있는 토대가 마련됐다고 보는 게 보다 합리적이다. 이번 AI 기본법 시행을 계기로 개별 기업들에게 예측가능성이라는 토대가 마련됐다는 것 이외에 기업 입장에서 AI 기본법에 따른 컴플라이언스 체계를 구축하여, 우리가 제공하는 AI는 신뢰할 수 있는 기술이라는 슬로건을 가져갈 수 있는 기회가 될 것으로 보인다. 기술 경쟁력을 넘어서 윤리적인, 신뢰할 수 있는 AI 서비스를 찾는 이용자 관점을 반영해 AI 산업 주도권을 갖기 위한 노력이 필요하다. 법 시행은 완성이 아닌 '균형'을 잡기 위한 긴 여정의 시작이 될 것이다. 규제 무게가 AI 산업의 혁신 또는 성장을 억누르면 안 된다는 것은 너무나 당연한 말이다. 누군가 AI 기술의 10년 후를 물었더니, AI 전문가가 1년 뒤도 예측하기 어려운데 10년 뒤를 예측하는 건 불가능하다고 답했다고 하는 것처럼, 현재 AI 기술은 하루가 다르게 발전하고 있다. 따라서 현재의 AI 기본법 규제 체계가 완성됐다는 것보다는 발전하는 AI 현실을 받아들여 AI 산업계와 영향받는 자인 국민의 목소리를 반영한 유연한 사고가 필요한 게 현실이다. 결국 AI 기본법 시행이라는 큰 산을 넘었지만, 이후 AI 기본법이 얼마나 잘 작동해 AI 산업을 진흥시키고, 예측가능성에 따라 신뢰할 수 있는 AI 서비스를 제공할 수 있는지 여부는 정부와 현장 간 호흡에 달렸다. 정부는 법 시행 초기 발생할 수 있는 현장의 혼선을 최소화하기 위해 과학기술정보통신부 중심으로 명확한 가이드라인을 지속적으로 제공해야 하고, 이미 추진하기로 한 과태료 시행 유보 등 과감한 제도 안착을 위해 노력해야 할 것이다. 2026년은 대한민국 AI 산업의 '대항해 시대'가 열리는 원년이다. 그 과정에 AI기본법이 본래 달성하려고 한 목표를 이루고 AI 산업 진흥에 이정표가 되길 바란다.

2026.01.19 05:00윤주호 컬럼니스트

BHSN-율촌, 폐쇄형 법률 AI '아이율' 개발…"업무·보안 잡았다"

BHSN이 대형 로펌 환경에 특화된 인공지능(AI) 서비스를 개발해 법률 업무 환경을 개선했다. BHSN은 법무법인 율촌 손잡고 지능형 리걸 AI 서비스 '아이율'을 출시했다고 12일 밝혔다. 아이율은 BHSN 법률 특화 멀티 거대언어모델(LLM) 플랫폼 '앨리비 아스트로'로 작동한다. 로펌 실무 환경에 맞게 구현된 AI 검색·분석 시스템이다. 율촌은 지난해 12월 말부터 아이율을 실제 업무에 적용하고 있다. 해당 서비스는 외부로 데이터가 나가지 않는 폐쇄형 검색증강생성(RAG) 구조로 설계됐다. 이에 로펌과 고객 정보가 외부 AI 학습에 활용되지 않는다. 율촌의 기존 권한 체계와 연동돼 사용자 권한에 맞는 분석 결과만 제공하고 보안 자료는 분석 대상에서 제외한다. 아이율은 기존 지식 관리 시스템 내 법률 자료를 AI로 분석해 근거 자료를 제시한다. 이를 통해 자료 탐색과 검증 과정 속도, 정확도를 동시에 높일 수 있다. BHSN 리걸 AI 솔루션 앨리비는 현재 CJ제일제당과 한화솔루션, 애경케미칼 등 기업 계약과 법무, 컴플라이언스 업무에 쓰이고 있다. 삼성생명과는 금융권 위험관리와 내부통제 요건을 충족하는 금융 컴플라이언스 AI 적용도 진행 중이다. BHSN은 현장 적용 경험을 바탕으로 산업별 특성과 규제 환경을 반영한 전문 인공지능 플랫폼으로 앨리비를 확장할 계획이다. 이달 중 개인 변호사 대상으로 서비스형 소프트웨어(SaaS) 리걸 AI도 출시한다. 임정근 BHSN 대표는 "이번 협업은 아스트로가 대형 로펌 보안 기준과 전문가적 사고 체계를 동시에 충족할 수 있음을 증명한 이정표"라며 "워크플로 기반 생성 기능이 탑재된 앨리비 신규 버전을 통해 리걸 AI 업무 범위를 넓히겠다"고 말했다. 강석훈 법무법인 율촌 대표 변호사는 "우리 전문성과 고객 정보 보호를 최우선으로 하는 가치가 B HSN 기술력과 결합했다"며 "법률 업무 환경에서 의미 있는 변화를 만들어갈 것"이라고 밝혔다.

2026.01.12 15:37김미정 기자

BHSN-법무법인 율촌, 리걸 AI '아이율' 구축 완료...실무 적용 시작

비에이치에스엔(대표 임정근, 이하 BHSN)이 로펌 법무법인 율촌과 함께 지능형 리걸 AI 서비스 '아이율' 구축을 완료하고 전사 오픈했다고 12일 밝혔다. 이번 프로젝트는 BHSN의 멀티 LLM 플랫폼인 '앨리비 아스트로' 기술을 율촌의 고난도 법률 실무 환경에 최적화해 구현한 사례다. 양사는 지난 12월 말 서비스 오픈 이후 현재 시스템 안정화 단계를 거치며 고도화된 AI 기술의 실무 적용을 본격화하고 있다. 특히 아이율은 대형 로펌의 엄격한 보안 요구사항과 접근 통제 요건을 충족하기 위해 '폐쇄형 검색 증강 생성(RAG)' 아키텍처를 채택했다. 이는 외부로 데이터가 전송되지 않는 독립된 환경 내에서 AI가 내부의 지식 자산을 정밀하게 탐색하고 분석해 답변을 생성하는 방식이다. 모든 질의 및 대화 과정은 AI 학습에 일절 활용되지 않아 고객 정보 보안과 신뢰를 철저히 보장한다. 또 율촌의 기존 권한 체계와 유기적으로 연동돼 사용자 권한별로 최적화된 AI분석 결과를 제공하며, 보안자료는 분석 대상에서 철저히 제외하는 등 최고 수준의 데이터 거버넌스를 구현했다. 본 서비스는 변호사들의 실무를 지원하는 지능형 지식 탐색 파트너다. 단순한 정보 검색을 넘어 기존 지식 관리(KM) 시스템 내의 방대한 법률자료들을 AI가 맥락적으로 이해하고 분석해 제시한다. 변호사가 직접 정보를 탐색하고 검증하는 과정에서 AI가 최적의 근거 자료를 신속하게 도출함으로써 업무의 정확도를 획기적으로 높이는 역할을 수행한다. 율촌은 최근 사내 명칭 공모를 통해 서비스명을 '아이율'로 확정하고 종무식에서 명칭 공모 시상을 진행하는 등 구성원들의 높은 관심과 기대 속에 서비스 운영을 시작했다. 아이율은 법무법인 율촌의 업무 환경과 보안 요구에 맞춰 별도로 설계, 구축된 AI 검색 서비스다. 이런 구조를 구현하기 위해서는 대형 로펌과 그 고객이 요구하는 수준의 데이터 보호, 권한 통제, 비학습 기반 아키텍처를 동시에 충족할 수 있는 기술적 역량이 필요하다. BHSN은 기업과 로펌 환경에서 축적한 리걸 AI 적용 경험을 바탕으로, 이러한 요구를 실제 운영 환경에서 구현할 수 있는 기술 파트너로 참여했다. 임정근 BHSN 대표는 “대한민국 법률 시장의 디지털 혁신을 선도하는 율촌과의 협업은 BHSN의 멀티 LLM 플랫폼 '아스트로'가 대형 로펌의 까다로운 보안 기준과 전문가적 사고 체계를 동시에 충족할 수 있음을 증명한 중요한 이정표”라며 “향후 워크플로우 기반 생성 기능 등이 탑재된 앨리비 신규 버전을 통해 리걸 AI의 실무 활용 범위를 더욱 넓혀가며 법률 전문가들에게 최상의 지능형 업무 환경을 제공할 것”이라고 말했다. 강석훈 법무법인 율촌 대표 변호사는 “법률 시장의 환경이 급변함에 따라 변호사가 본질적인 역량에 집중할 수 있는 시스템 구축이 중요해졌다”며 "업계를 선도해 온 율촌의 전문성과 고객 정보 보호를 최우선으로 하는 가치가 BHSN의 기술력과 결합해, 법률 업무 환경에서 의미 있는 변화를 만들어갈 것으로 기대한다"고 밝혔다.

2026.01.12 09:46백봉삼 기자

래티스 "통합 계약 거버넌스 솔루션 '프릭스' 고도화"

래티스(대표 강상원)는 법무팀이 전사 계약을 통제·관리할 수 있도록 설계된 통합 계약 거버넌스 솔루션 '프릭스'를 고도화하고 있다고 8일 밝혔다. 프릭스는 초기 설계 단계부터 데이터 통제력과 가시성 확보에 집중해 왔다. 최근 대형 고객사의 엄격한 보안 기준과 관리 체계를 완벽히 수용하며 시스템 완성도를 한층 높였다. 특히 법무팀 실무진이 현장에서 필수로 요구하는 핵심 기능들을 단일 플랫폼에 완결성 있게 통합한 점이 특징이다. 주요 기능은 ▲부서와 직무에 따른 '계약서별 권한 부여' ▲담당자 교체 시에도 계약 맥락 파악이 가능한 '담당자 히스토리 관리' ▲별도 기록 없이 계약서와 함께 보존되는 '계약서 협의 내용 메모' ▲AI가 계약서의 내용을 추출하여 제공하는 '계약서 필드 추출' 기능 등이다. 향후 AI 기능을 고도화해 AI 기반의 계약서 리스크 분석, 수정 제안 등을 포괄하는 AI Agent 기능을 선보일 예정이다. 그간 대기업과 중견기업 법무팀은 계약서를 계약관리 대장(엑셀) 작성 후 드라이브에 업로드하는 방식에 의존해 왔다. 이로 인해 발생하는 업로드 누락, 퇴사자 발생 시 인수인계 어려움, 보안 취약성 등은 법무팀의 고질적인 리스크였다. 프릭스는 이런 관리 사각지대를 시스템으로 해결함으로써 별도의 전사적자원관리(ERP) 연동 없이도 서비스 내에서 법무 검토부터 내부 결재까지 직접 처리할 수 있는 통합형 환경을 제공해 행정 부담을 크게 낮췄다. 이런 기능적 완결성은 지표 성장으로 이어지고 있다. 프릭스는 작년 9월 말일 기준 누적 계약서 수 10만 개를 돌파했다. 재무적으로도 지난해 기준 전년도 대비 연간반복매출(ARR)이 약 60% 증가했다. 이는 내부회계관리제도(K-SOX) 강화에 따라 실질적인 거버넌스 시스템을 찾는 상장사 및 중견기업들의 수요가 프릭스의 실무 중심 기능과 맞물린 결과로 풀이된다. 래티스는 클라우드 기반 솔루션뿐 아니라, 보안이 엄격한 대기업을 위한 망분리 환경에서의 서버 구축 및 프로젝트 수행 경험까지 갖추며 고객군을 다변화하고 있다. 강상원 래티스 대표는 "프릭스가 제시하는 계약 관리의 방향성이 이제 시장의 표준 모델로 자리 잡고 있다"며 "대기업향 솔루션 구축 과정에서 얻은 고도의 보안 기술력과 운영 노하우를 바탕으로 국내외 기업들의 계약 거버넌스 수준을 한 단계 끌어올리는 신뢰받는 파트너가 되겠다"고 밝혔다.

2026.01.08 15:43백봉삼 기자

[기고] 금융 AI 가이드라인 개정이 보여주는 새 규제 방향

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)은 이미 금융산업 보조 기술을 넘어 핵심 인프라로 자리 잡고 있다. 신용평가를 비롯한 이상거래 탐지, 사기 적발, 자금세탁 방지 등 본질적 금융 기능 상당 부분이 AI 기반으로 재편되고 있다. 최근 금융위원회가 "AI는 금융의 본질적 역할에 기여할 수 있다"고 강조한 배경 역시 여기에 있다. 그동안 AI 규제 논의는 주로 위험 통제에 초점이 맞춰져 왔다. 그러다 보니 현장에서는 명성, 차별 방지, 위험평가를 통한 안전성 확보와 같은 사항들이 실제 운영 단계에서 어떻게 구현돼야 하는지에 대한 혼란이 있었다. 금융권에서는 기존 규제와 더불어 그 부담감이 상당했던 것도 사실이다. 이번 가이드라인(안)은 거버넌스, 데이터 관리, 모델 검증, 보안, 책임 구조 등 AI 전 주기를 포괄하는 원칙 중심 기준을 제시하고 있다. 이는 금융권의 AI 활용을 제한하기보다는 신뢰 가능한 방식으로 운영하기 위한 기준을 보다 명확히 했다는 점에서 위와 같은 간극을 메우려는 시도로 해석된다. 이런 접근은 기업 실무 관점에서도 의미가 크다. 금융회사가 AI를 도입할 때 가장 어려움을 겪는 부분은 기술 자체 적정성 판단이 아니라, 사후 책임과 내부 통제에 대한 불확실성이다. 이번 가이드라인은 AI 도입 여부 또는 활용 방법을 판단하는 기준을 넘어 그 도입 이후 내부 의사결정, 소비자 보호 장치 등 관리·안정적 운영을 위해 기업이 준비해야 할 구체적인 관리 포인트를 비교적 명확히 제시하고 있다. 규제당국의 전향적 접근이 기업 한계를 제한하지 않고 오히려 예측 가능성을 높여 그 발전을 돕고 있는 것이다. 이같은 접근은 한 달 내 시행을 앞둔 AI 기본법과의 관계에서도 시사하는 바가 크다. AI 기본법은 전 산업에 적용되는 반면, 금융 AI 가이드라인은 금융이라는 특정 산업 리스크 구조를 반영한 산업별 운영 기준에 가깝다. 이는 향후 AI 규제가 단일한 법률로 모든 문제를 해결하기보다는 기본법과 산업별 가이드라인이 상호 보완적으로 작동하는 방향으로 정착될 가능성을 보여준다. 금융위원회가 '총력전'을 강조했듯 AI 경쟁력은 알고리즘 성능이나 데이터 규모만으로 결정되지 않는다. AI가 실제 금융 서비스에 적용되는 과정에서 발생할 수 있는 오류, 편향, 책임 문제를 어떻게 관리할 것인지에 대한 제도적 신뢰가 뒷받침되지 않는다면 빠른 도입은 오히려 리스크로 작용할 수 있다. 금융 분야에서 AI의 판단은 곧바로 소비자 보호와 금융시장 안정성으로 이어진다는 점에서 금융산업 특성은 충분히 고려될 필요가 있다. 이번 개정이 초점을 맞춘 운영 중심의 규율은 이러한 문제의식을 구체화한 결과로 볼 수 있다. 물론 원칙 중심의 가이드라인이 실효성을 갖기 위해서는 해석과 적용의 일관성이 중요하다. AI 활용을 위한 탄탄한 거버넌스와 전문인력이 뒷받침되었음은 기본값으로 둔다 하더라도 금융회사마다 AI 활용 수준과 조직 구조가 다른 만큼, 동일한 원칙이 현장에서 다양한 방식으로 구현될 가능성이 높다. 이 과정에서 감독 당국과 업계 간의 지속적인 소통과 사례 축적이 필요하다. 가이드라인이 경직된 규제가 아니라 살아 있는 기준으로 기능하기 위해서는 축적 과정이 필수다. 금융 AI 가이드라인 개정은 한국의 AI 규제 논의가 새 단계로 접어들었음을 시사한다. 이제 중요한 것은 AI를 얼마나 제한할 것인가의 문제가 아니라 AI를 산업 본질에 부합하도록 어떻게 계획하고 운영할 것인가다. 금융 분야에서 시작된 이런 접근은 향후 다른 산업으로도 확산될 가능성이 크다. 이제 기업에게 필요한 것은 규제를 피하는 전략이 아니라 규제를 운영의 언어로 이해하고 선제적으로 설계하는 전략일 것이다.

2026.01.05 07:00이수화 컬럼니스트

[기고] EU 디지털 간소화 방안과 한국 AI 기본법 과제

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 한국은 세계적으로 인공지능(AI) 기술 수용과 활용이 가장 활발한 국가 중 하나다. 오픈AI는 한국의 챗GPT 유료 구독자 수가 미국에 이어 세계 2위를 차지한다고 발표한 바 있다. 그러나 이런 기술 도입 속도에 비해 AI 규제와 제도적 틀 마련은 상대적으로 늦게 시작됐다. 한국은 AI 관련 제도 정비 과정에서 유럽의 강력한 AI 법안(EU AI Act)과 미국의 규제 동향을 면밀히 관찰하며 영향 받았다. 한국의 AI 관련 법령은 개인정보, AI, 플랫폼 규제 등에서 EU 모델을 상당 부분 참조하면서도, 산업 진흥 필요성과의 균형을 추구하는 모델로 평가받고 있다. 올해 1월 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'이 제정돼 내년 1월 시행을 앞뒀다. 현재 시행령과 고시, 가이드라인 등 하위법령 마련 작업이 진행 중이다. 과학기술정보통신부는 지난 9월 8일 하위법령 제정방향을 공개하고 대국민 의견을 수렴한 후, 지난달 12일 시행령 제정안을 입법예고하면서 규제보다는 진흥에 무게를 두고 최소한의 규제체계를 도입하는 데 집중했다고 밝혔다. 국내 하위법령 정비가 이뤄지는 가운데, 지난달 19일 EU 집행위원회가 '디지털 간소화 방안(Digital Package)'을 공식 발표했다. 이 방안은 최근 몇 년간 EU AI 법안, 데이터법, 디지털서비스법(DSA), 디지털시장법(DMA) 등 여러 규제를 연속적으로 도입하면서 발생한 복잡성과 중복규제 문제를 해결하고자 디지털 규제환경을 포괄적으로 개편하는 것이다. 기업의 부담과 법적 불확실성을 줄이고 시장 혁신과 경쟁력을 강화하는 것을 목표로 한다. 주요 내용은 데이터, 사이버보안, AI 규제를 단순화하는 '디지털 옴니버스 규정(Digital Omnibus Regulation)'을 포함한다. 특히 AI 규제 간소화 측면에서 주목할 만한 변화가 있다. EU AI 법안의 원활한 시행을 위해 고위험 AI 규제 적용 시점을 최대 16개월 연기하는 조치가 포함됐다. 예컨대 고용·법 집행 등 민감 분야의 고위험 AI 규정 시행은 2026년 8월에서 2027년 12월로 연기된다. 기술문서 작성 의무 완화 등 기존 중소기업에만 적용되던 완화 조치는 종업원 750명 미만의 중견기업(SMC)까지 확대 적용된다. 기업 내부에서 제한적 용도로 사용하는 AI에 대해서는 EU 데이터베이스 등록 의무를 면제했다. 데이터 측면에서 GDPR 개정을 통해 AI 개발·운영을 위한 개인정보 처리가 '정당한 이익'에 해당한다는 근거를 명시함으로써 AI 모델 학습·운용에 개인정보를 활용할 수 있는 범위를 확대했다. EU의 디지털 간소화 방안은 아직 최종 통과나 확정까지 회원국 간 논의와 유럽의회 승인 절차가 남아있으며, 디지털 기본권 후퇴 가능성이나 빅테크 편향성에 대한 비판도 제기되고 있다. 그럼에도 EU의 규제 정비 방향성은 국내 AI 정책과 하위법령 정비에도 일정한 영향을 미칠 것으로 예상된다. 새 정부가 AI전환(AX)을 통해 AI 3대 강국으로 도약하겠다는 강력한 의지를 밝혔고, 하위법령 정비 방향도 규제보다는 진흥에 무게중심을 둔 상황에서, EU 역시 규제를 간소화하고 산업 진흥과 기본권 보호의 조화를 도모하는 방향으로 무게추를 옮긴 만큼 이런 방향성이 더욱 탄력을 받을 것으로 전망된다. EU AI 법안이 고위험 AI 규정의 적용 시점을 차등 연기한 것은 국내 규제 적용의 범위와 속도를 조절하는 데 참고할 수 있을 것으로 보인다. 또한 규제의 통합절차 간소화 등 '규제효율'을 도모하는 설계원리를 반영한 디지털 인프라 구축 논의가 가속할 것으로 예상된다. 그럼에도 규제 강도와 기본권 보호에 대한 강조 측면에서 EU AI 법안은 여전히 높은 수준의 요구사항을 유지하고 있다. 국제규범과의 호환성을 확보하되 국내 산업 여건과 균형을 이룰 수 있는 정교한 접근이 필요한 시점이다.

2025.12.16 10:30노은영 컬럼니스트

[기고] 인공지능 특이점으로 가는 출발점

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] '특이점(singularity)'은 수학이나 물리학에서 사용되던 용어다. 수학적으로 정의될 수 없는 점이나 블랙홀 중심에 있어 밀도가 무한대로 시공간이 붕괴되는 점과 같이 우리가 이해하고 있는 물리 법칙이 적용되지 않는 점을 말한다. 이처럼 알려져 있는 물리 법칙으로 설명할 수 없는 예측 불가능한 변화가 발생하는 지점을 설명하는 개념이다. 요즘은 인공지능(AI)의 '기술적 특이점'이란 말이 많이 사용된다. 컴퓨팅 파워 등 기술이 기하급수적인 속도로 발전하면서 현재 인간이 상상하기 어려운 변화가 온다는 것이다. AI 연구자이자 미래학자인 레이 커즈와일이 AI에 특이점이라는 개념을 적용하면서 대중들에게도 널리 알려졌다. 레이 커즈와일은 인류가 수천 년 동안 특이점을 향해 대장정을 펼쳐 왔는데, 이제 전력 질주 구간에 이르렀다고 한다. 순식간에 모두 스마트폰을 들고 다니게 된 것처럼 AI 기술도 일상 생활 깊숙이 들어올 것이고 우리의 사고도 크게 확장될 것이라는 주장이다. 레이 커즈와일이 말한 것처럼 AI 기술은 어지러울 정도로 빠르게 발전하고 있다. 구글, 오픈AI, 마이크로소프트 등의 연구진이 참여해 2023년 7월경 발표한 AI 규제 관련 보고서 '프런티어 AI 규제: 공공 안전을 위협하는 신흥 위험 관리(Frontier AI Regulation: Managing Emerging Risks to Public Safety)'에서는 1천26 플롭(FLOP)을 사용해 학습된 모든 기초 모델이 충분히 위험한 능력을 보일 잠재력을 가지고 있다고 간주하는 것을 제안했다. 이는 2023년 10월 당시 바이든 대통령이 1천26 FLOP을 일종의 규제 기준으로 하는데 영향을 미쳤다. 다만 트럼프 대통령은 취임 직후 바이든 행정부의 이 행정명령이 AI 혁신을 저해하는 과잉 규제라며 페지했다. 2년이 지난 현 시점까지는 1천26 FLOP을 만족하는 AI 모델이 공식적으로 공개 되지는 않은 것으로 보이나, 머지않아 이를 충족하는 AI 모델이 나올 것으로 예상된다. 기술이 빠르게 발전하며 일상의 풍경을 바꿔놓으면 일상을 규율하는 제도, 규범 역시 변화가 필요하다. AI 기술에 대한 법과 제도도 한창 정비 중이다. 유럽연합(EU)은 세계 최초로 AI 법 제정해 2024년 8월부터 단계적으로 시행하고 있다. 다만 건강, 안전, 기본권과 관련된 공익의 일관되고 높은 수준의 보호를 보장하기 위한 '고위험 AI(High Risk AI system)'에 대한 규제가 2026년 8월 시행 예정이었는데, 최근 그 시행 시기를 2027년 12월로 16개월 연기한다고 발표했다. 미국은 연방 차원에서 AI 전반을 다루는 법이 나오지는 않았지만 캘리포니아 등 여러 주에서 '투명성 의무' 등에 대한 다양한 법안이 제정되고 있다. 일본은 올해 6월 AI의 연구개발, 이용을 촉진하기 위한 진흥법을 마련헸다. 우리나라도 2025년 1월 AI 기본법이 제정돼 2026년 1월부터 시행될 예정이다. 한국의 AI 기본법은 AI 산업 발전을 위해 정부가 다양한 지원을 하는 방안과 함께 AI를 안전하고 신뢰성 있는 기반 하에 이용할 수 있도록 하는 방안을 담고 있다. 법 시행을 앞두고 시행령이 입법예고 됐고, 투명성 확보 의무, 고영향 AI 사업자 책무 등에 관련된 고시와 가이드라인도 나왔다. 생성형 AI 또는 고영향 AI를 이용한 제품 또는 서비스를 제공하는 AI사업자는 그 제품 또는 서비스가 해당 AI에 기반해 운용된다는 사실을 이용자에게 사전에 고지해야 하는 등 투명성을 확보할 의무를 진다. 또 생성형 AI 또는 이를 이용한 제품이나 서비스를 제공하는 경우 그 결과물이 생성형 AI에 의해 생성됐다는 사실을 표시해야 한다. 이 때 사람이 직접 인식할 수 없더라도 소프트웨어를 통해 확인할 수 있는 방식의 비가시적 표시도 가능하다. 다만 이 경우에는 생성형 AI에 의해 생성됐다는 사실을 1회 이상 안내 문구, 음성 등으로 제공해야 한다. AI 기본법 시행령을 입법예고하며 발표된 보도자료에는 규제보다 진흥에 무게를 두면서 필요 최소한의 유연한 규제 체계를 도입하는 것이라고 강조돼 있다. 그러나 여러 가이드라인들이 제시됐음에도 여전히 모호하고 불명확 부분이 많다는 현장 사업자들의 목소리도 있다. 특이점으로 가는 고속도로가 열릴지, 지난한 여정의 서막이 오른 것일지, 출발점에 서있다.

2025.11.26 10:41법무법인(유) 태평양 유재규 변호사 컬럼니스트

[현장] 시행 앞둔 AI 기본법…대응 전략은 '사람 개입·거버넌스'

내년 우리나라 '인공지능(AI) 기본법' 시행을 앞두고 기업과 기관의 AI 활용 방식이 근본적으로 재편될 조짐이 나타나고 있다. 고영향 AI에 대한 규제 체계가 구체화되면서 기존 자동화·AI 기반 서비스의 의사결정 구조를 전면 재설계해야 하는 상황이다. 업계에서는 AI를 더 많이 활용해야 하는 시대적 흐름과 동시에, 투명성 확보·위험 관리·책임 구조 정비라는 새로운 의무가 부상하면서 대응 전략 마련이 시급하다는 목소리가 나온다. 한국능률협회컨설팅(KMAC)과 법무법인 린은 21일 서울 역삼 포스코타워에서 '고영향 AI 활용에 따른 비즈니스 설계와 실행 전략' 세미나를 개최해 AI 기본법 시행의 핵심 쟁점과 실무 대응 방향을 제시했다. 행사는 AI 기본법이 내년 1월 본격 적용되면서 조직이 마주하게 될 법적·운영적 변화에 대비하기 위한 자리로 마련됐다. EU는 설계부터 규제, 한국은 고지 중심…느슨한 범용 AI 규정 첫 발표자로 나선 법무법인 린 방석호 AI산업센터장은 유럽연합(EU) AI법과 국내 AI 기본법의 차이를 짚으며 "국내 법은 EU의 '고위험' 개념을 '고영향'으로 대체했지만, 범용 AI 규제는 상당 부분 비워놓은 구조"라고 설명했다. 그는 EU가 학습 데이터와 모델 구조 등 기술적 투명성 공개를 의무화한 반면, 한국은 최종 이용자에게 '이 서비스는 AI가 사용됐다'는 사실만 고지하면 되는 수준에 그쳐 규제 밀도가 낮다고 평가했다. 또 방 센터장은 "국내 기준은 최근 발표된 미국 캘리포니아의 프론티어 모델 기준을 사실상 그대로 가져와, 학습 연산량 10²⁶ 플롭스(FLOPs) 이상만 고영향으로 추정하도록 했다"며 "결국 국내 사업자는 범용 AI 규제에서 빠져 있는 셈이지만, 고영향 분야로 응용하는 순간 책임은 훨씬 커진다"고 강조했다. 이어 법무법인 린 구태언 변호사는 업권별로 고영향 AI 지정 가능성을 분석하며 기업이 취해야 할 방향을 제시했다. 그는 "대출 자동심사, 채용 서류 자동평가, 교육·의료 영역의 자동 의사결정 등은 사람이 개입하지 않으면 고영향 AI로 판단될 소지가 크다"며 "특히 '사람이 최종 결정한다'는 구조를 명확히 포함해야 지정 위험을 피할 수 있다"고 말했다. 구 변호사는 금융 분야 사례를 언급하며 "앱에서 10분 만에 대출 승인 여부가 나오는 현재 프로세스는 사실상 완전 자동화된 AI 의사결정"이라며 "이 경우 개인은 '내 금리가 왜 이렇게 나왔는지 설명하라'고 요구할 수 있고 이는 고영향 지정 요청으로 이어질 수 있다"고 경고했다. 그러면서 "채용 영역에서도 AI가 정량·정성 평가를 수행해 지원자를 컷오프하는 구조는 고영향 판단 위험이 높다"며 "면접·평가 결과를 참고자료로만 활용하고 사람이 이를 재검토한 기록을 남기는 절차가 필요하다"고 설명했다. AI 기본법 대응 핵심은 '사람 개입·문서화·거버넌스' KMAC 손권상 AI·빅데이터 본부장은 기업이 실무적으로 대응해야 할 'AI 거버넌스 체계'를 제시했다. 그는 "기업 대부분이 AI를 쓰고 있지만, 실제로 어떤 모델을 어디에 쓰고 있는지조차 정리되지 않은 곳이 많다"며 "프로세스 단계별로 AI 개입 여부, 의사결정 영향력, 위험 수준을 평가하는 것이 첫 단계"라고 강조했다. 손 본부장은 금융권 대출 심사와 HR 채용 프로세스를 사례로 들며 기업이 AI 기반 업무를 다시 설계하는 과정을 세부적으로 설명했다. 업무 프로세스에서 AI가 판단을 내린 뒤 사람이 이를 재검토하는 구조가 반드시 포함돼야 하고 AI 결과를 '참고값'으로 낮춰 최종 결정은 사람이 하는 체계를 문서화하는 것이 핵심이다. 또 고영향 판단 여부를 ▲사람 개입성 ▲결과의 확정성 ▲영향력의 크기 세 항목으로 분류해 진단할 것을 제안했다. 손 본부장은 "고객 리스크 사전분류, 신용등급 자동 산출, AI 면접 평가 등은 고영향으로 판정될 가능성이 높기 때문에 별도의 모니터링 절차와 재검토 체계가 필요하다"고 짚었다. 아울러 기업 내부에 AI 윤리위원회와 전담 조직을 설치해 지속적인 모니터링 체계를 갖출 필요가 있다고 강조했다. AI 윤리 기준 수립, 모델 검증 매뉴얼, 데이터 처리 가이드라인 등 전사 AI 운영지침을 마련해야 한다는 것이다. 손 본부장은 "AI 기본법이 규정하는 고영향 AI는 앞으로 더 많은 산업과 업무 영역에서 등장할 것"이라며 "사전 검토·위험·감독·문서화·법적 대응이라는 5단계 구조를 실무 절차에 그대로 이식하는 것이 가장 현실적 대응"이라고 조언했다. 이어 "앞으로 AI를 도입하면 기술만 바꾸는 것이 아니라 기업의 일하는 방식 전체가 재설계되는 패러다임 변화가 찾아올 것"이라며 "기업이 이러한 전환을 효과적으로 헤쳐나갈 수 있도록 전문성을 바탕으로 지원하겠다"고 덧붙였다.

2025.11.21 18:11한정호 기자

[기고] 알고리즘과 개인정보 처리

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 오늘날 '알고리즘(Algorithm)'이라는 용어는 인공지능(AI)과 함께 매우 빈번하게 사용된다. 이 용어는 새롭게 만들어진 말이 아니라 9세기 페르시아 수학자 '알-콰리즈미(Al-Khwarizmi)'의 라틴어식 이름인 알고리스무스(Algorismus)에서 유래한 것으로, 본래 '문제를 해결하는 절차와 방법'을 의미했다. 이처럼 오래된 개념이 오늘날 AI 영역에서 뜨거운 법적 쟁점이 되고 있다. 전통적인 알고리즘은 사람이 모든 규칙을 직접 만들고 입력했지만 현대의 AI 알고리즘은 스스로 학습을 통해 규칙을 만들어 내기 때문이다. 그런데 이 학습의 재료는 방대한 양의 데이터다. 이 데이터에는 개인의 신상, 취향, 생체 정보와 같은 개인정보도 포함된다. 개인정보를 학습해 고도화된 예측 모델인 AI 알고리즘이 그 자체로 개인정보를 처리한 결과물로 봐야 하는지는 어렵지만 답해야 하는 문제다. AI 모델 자체는 개인정보 처리에 해당하지 않는다는 측은 학습의 '과정'과 '결과물'을 구분한다. AI를 트레이닝하는 단계에서는 개인정보의 수집과 분석이 이뤄지므로 개인정보 처리에 해당하지만 학습이 끝나 하나의 모델이 완성되면 그 모델, 즉 알고리즘은 원본 개인정보와 분리된 수학적·통계적 규칙의 집합에 불과하다. 이에 따라 모델을 활용하는 행위는 개인정보 처리가 아니라는 논리다. 반대로 학습이 완료된 AI 모델도 개인정보 처리의 연장선에 있거나 그 자체로 개인정보의 성격을 가진다고 보는 입장도 있다. 이 견해에 따르면 AI 모델은 단순히 원본 데이터를 요약한 것이 아니라 그 안에 데이터의 본질적 패턴과 특성을 내재하고 있다. 이에 따라 AI가 특정 개인을 식별하거나 민감한 정보를 추론할 수 있다면 이는 심각한 문제이므로 별도의 보호가 필요하다는 주장으로 이어진다. 미국의 경쟁당국인 연방거래위원회(FTC)는 과거 안면인식 AI기업인 파라비전 사가 사용자 동의 없이 수집한 개인정보로 AI 모델을 개발한 행위에 대해 원본 데이터를 파기할 뿐만 아니라 그 데이터로 학습한 알고리즘까지 삭제(disgorgement)하라는 명령을 내린 바 있다. 이같은 사례는 여러 건이 확인된다. 이러한 규제 당국의 입장은 AI 모델을 불법 수집된 정보의 파생물로 본다는 점에서 의미가 있다. 개인정보를 위법하게 수집했다면 그 데이터를 이용해 개발한 알고리즘으로 이익을 얻는 것 역시 허용되지 않는다는 것이다. 이는 알고리즘이 원재료인 개인정보와 동일한 수준으로 취급될 수 있음을 보여주는 사례다. 국내에서도 AI 개발 과정을 개인정보 처리로 본 사례가 있다. 지난 2022년 법무부가 1억7천만 건의 출입국 심사 정보를 민간 기업에 제공해 AI 식별 시스템을 개발하게 한 사안에서 개인정보보호위원회는 해당 AI 개발을 개인정보 처리를 위탁한 것으로 간주했다. 다만 이 사안에서는 당초 수집 목적 범위 내의 적법한 이용으로 인정됐기에 알고리즘 삭제까지 이어지진 않았다. AI 학습과 그 결과물인 모델을 '개인정보 처리'의 영역으로 볼 경우 그 파급력은 막대하다. 정보주체가 개인정보보호법상 '삭제 요구권'을 행사하며 "내 정보가 학습된 모델을 삭제해달라"고 요구할 수 있게 되기 때문이다. 개인정보로 만들어진 알고리즘을 법적으로 어떻게 바라볼 것인지, 정보주체를 보호하면서도 기업의 기술발전 진흥을 위해서는 어떠한 규제를 만들어 나가야 할지에 대한 사회적, 법적 논의가 필요한 시점이다.

2025.10.24 11:46이강혜 법무법인 태평양 컬럼니스트

[기고] 인공지능 혁신을 위한 골든 타임

전 세계는 인공지능(AI)에 올인 아닌 올인을 하고 있다. 인터넷의 시대, 모바일의 시대 초기에도 이랬나 싶을 정도다. 과거에서 학습한 경험 때문일까. 적어도 미래에는 뒤쳐지지 않기 위해 어느 나라도 가리지 않고 AI에 대한 치열한 관심과 투자에 골몰하고 있다. 그나마 제조업과 기반 기술을 보유한 우리나라는 다른 해외 국가들과 비교해 뭔가 더 할 수 있는 위치에 있다. AI 기술 역시 다른 기술 분야에서처럼 승자 독식의 법칙을 따르고 있다. 아직은 그 미래를 알 수 없지만 당장 뒤쳐지게 된다면 몇 년만 지나더라도 도저히 따라잡을 수 없는 절벽이 생길지도 모른다는, 그리고 그때는 도태될 수 있다는 두려움이 수십조원, 수백조원 단위의 상상하기 어려웠던 규모의 투자를 하게 만들고 국가 전체의 지원을 고민하게 만든다. 우리 정부가 인공지능 3대강국(AI G3)이라는 다소 벅차 보이는, 도달할 수 없더라도 목표는 높이 잡아야 한다는 메타포같은 구호를 제시한 이유도 충분히 수긍할 만한 상황이다. AI가 보다 발전한 미래가 어떠한 모습일지는 아직까지는 아무도 알지 못한다. 세계적인 석학들조차 AI의 시대가 가져올 찬란한 미래만큼이나 통제 불가능한 판도라의 상자를 열어젖하게 될 지도 모른다는 우려를 보여주기도 한다. AI 활용이 당장은 우리에게 생산성을 높이고 삶을 윤택하게 하는 유용한 도구로 인식되기도 하고 다른 한편에서는 과거 러다이트의 시대에서처럼 결국 인간의 일자리를 대체하고 말 것이라는 걱정이 혼재돼 있기도 하다. 혹자는 이러한 상황에 대비해 국가 전체적으로 AI가 가져올 경제적, 사회적 영향과 그에 대한 대비책 마련을 위한 사회적 대합의가 필요하다는 점을 지적하기도 한다. 모든 일에는 타이밍이 있다. 아무리 좋은 발명품이라도 시대를 너무 앞서 나가면 세상에 도움이 되지 못하기도 하고 반대로 충분한 준비를 갖추었다고 생각했을 때는 이미 세상이 저만큼 앞서 나가서 더 이상 필요없게 될 수도 있다. 빛의 속도로 발전하고 있는 AI 기술 역시 마찬가지이다. AI 혁신을 위한 현재의 당면 과제는 대규모 AI 학습을 위한 그래픽처리장치(GPU)의 확보뿐만 아니라 과거에 발붙이고 있는 데이터 규제의 문제를 신속하게 풀어야 한다는 점이다. 데이터에 대한 새로운 정책이 그동안의 레거시 규제가 가져왔던 안정적인 국민의 권리와 자유 보호에 영향을 미칠 수 있다는 지적도 존재한다. 그럼에도 지나고 보면 과거에는 필요하다고 느꼈던 규제가 AI 시대에는 불필요한 것일 수도 있다. 당장은 AI 개발과 발전을 위해서 학습 데이터의 확보가 매우 중요한 의미를 가지지만 수년만 지나더라도 학습 자체가 아니라 그 학습을 통하여 완성된 AI 활용 과정에서 발생하는 부작용이 보다 큰 사회적 이슈가 될 것이다. 몇 년이 지나고 나면 그 때 규제가 AI 개발에 왜 적용돼야 했던가라는 문제제기가 나올 수도 있다. 핵심은 골든 타임을 지나가고 있는 우리가 무엇을 더 할 수 있는가이다. 즉, 현재는 사회적 합의를 위한 설왕설래보다는 보다 속도감 있는 전진이 필요할 시점일 수 있다는 것이다. 입법부나 정책을 담당하는 행정 당국 역시 이같은 사정들을 모두 잘 알고 있다. 모든 규제들은 그 규제들이 도입될 때에는 나름의 합당한 이유가 있었던 것들이다. 다만 시간이 지남에 따라 규제들이 시대에 맞지 않는 단점들을 드러내게 된 것일 뿐이다. '과감'한 도전과 이를 위한 세밀한 전략만이 골든 타임을 놓치지 않는 방법이다.

2025.10.12 12:00강태욱 법무법인 태평양 컬럼니스트

[기고] 인공지능과 사랑의 법적 경계

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)는 '법적으로' 사랑을 할 수 있는가. 영화 '그녀(Her)'에는 AI와 사랑에 빠진 남자가 주인공으로 등장한다. 요즘 현실에서도 챗봇과 정서적 교류를 하며 위안을 얻는 사람들이 늘어나고 있다. 그렇다면 영화 속 이야기가 현실이 되는 날도 머지않은 것일까. AI가 사람과 정서적 교감을 나눌 수 있다는 점은 이제 부정하기 어렵다. 문제는 법적으로 AI와의 사랑을 어떻게 볼 수 있느냐다. 사랑 그 자체를 법으로 정의하기는 어렵지만 사랑에 수반되는 고백, 약속, 결혼 같은 행위는 법적으로 분석할 수 있다. 먼저 결혼을 보자. 민법은 제 807조에 따라 만 18세 이상의 자연인만이 혼인의 당사자가 될 수 있도록 규정한다. 이에 따라 AI는 아무리 그럴듯하게 청혼을 하더라도 법적으로는 결혼이 불가능하다. 사랑을 결혼과 동일시할 수는 없으므로 결혼을 전제하지 않더라도 사랑한다는 고백, 다른 사람을 사귀지 않겠다는 약속, 또는 어떤 선물을 하겠다는 것과 같은 사랑의 약속을 하려면 이에 대한 법적인 책임을 질 수 있어야 유효한 약속이 된다. 현재 한국법에서는 AI는 권리 의무의 주체인 법인격으로 인정되지 않는다. 즉 약속을 위반하더라도 책임을 물을 주체가 될 수 없기 때문에 유효한 사랑의 약속을 할 수 없는 것이다. AI를 개발하고 서비스하는 회사는 대부분 대기업인데 이런 대기업이 AI의 약속에 대해 책임을 진다면 유효한 약속이라는 견해가 있을 수도 있다. 다만 AI를 개발하고 제공하는 회사들이 이런 AI의 발언에 대한 책임을 회피하기 위한 이용약관을 철저히 준비해 두었을 것이라고 본다. 이러한 약관 규정에도 불구하고 AI가 표현한 사랑의 약속과 그 위반으로 인해 상대방에게 정신적 손해가 발생하거나 불이행에 대한 책임을 물을 가능성이 전혀 없는 것은 아니다. 그런데 이는 매우 제한적으로만 인정될 것이며 설령 책임이 인정된다 하더라도 그것은 제품의 기능에 관한 책임일 뿐, 사랑의 약속 자체를 법적으로 유효하게 만드는 책임은 아닐 것이다. 그럼에도 실망하기에는 이르다. 유럽연합(EU)에서 전자인격(Electronic Personhood) 개념을 도입해서 AI에게 제한적이지만 법적 인격을 부여하는 논의가 있었다. 물론 누구나 예상할 수 있는 것처럼 많은 반대로 법제도로 만들어 지지는 않은 상태다. 다만 우리에게 익숙한 회사, 재단과 같은 법인도 사회경제적인 필요에 의해 고안되고 인정된 개념이지 처음부터 누구나 사람과 같은 법인격을 인정했었던 것은 아니다. AI가 발전하고 사회의 경제활동에서 담당하는 비중이 높아진다면 사회적 필요에 의해 이런 전자인격 개념이 도입되고 AI가 주체가 돼 법적인 약속을 할 수 있는 날이 올 수도 있을 것이다. AI로부터의 사랑 고백과 선물을 약속 받는 것이 가능해 질 수도 있는 것이다. 참고로 영화 '그녀'에서 주인공은 헤어진 부인으로 인해 생긴 상처를 AI 여자친구를 통해 치유하나 결국 AI와 결별하고 앞으로 나아간다는 결말을 맞는다. 주인공역의 배우는 영화 내에서 헤어진 부인역을 맡았던 여자배우와 결혼해서 두 자녀를 두고 잘 살고 있다.

2025.09.29 16:47류광현 법무법인 태평양 컬럼니스트

[기고] AI 기본법 하위법령, 규제와 진흥 간 균형의 시험대

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 지난 2022년 말 '챗GPT'의 등장은 인공지능(AI) 기술이 사회 전반에 본격적으로 파고드는 계기가 됐고 불과 몇 년 만에 AI는 산업과 일상 곳곳으로 확산됐다. 각국은 AI의 급속한 발전으로 야기될 수 있는 이용자의 기본권 침해 등을 규제하면서도 동시에 AI 산업에서의 주도권을 놓치지 않기 위해 AI의 발전을 촉진하는 내용의 법제 정비에 나섰다. 미국은 지난 2023년 AI 위험관리 프레임워크를 마련해 민간 자율 규범 중심의 접근을 취했고 유럽연합(EU)은 세계 최초의 포괄적인 AI 규제법인 EU AI 법을 제정해 내년부터 시행을 앞두고 있다. 또 일본은 지난 6월부터 시행된 AI 촉진법을 통해 AI 연구개발, 이용의 촉진을 제도적으로 뒷받침하고 있다. 이러한 흐름 속에서 우리나라도 지난해 12월 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)을 제정했다. AI 기본법은 내년 1월 시행을 앞두고 있다. AI 기본법은 AI의 정의와 분류, 사업자의 의무 등을 규정해 큰 틀을 제시했다. 다만 실제로 AI 기본법이 유효하게 작동하기 위해서는 시행령과 고시, 가이드라인과 같은 하위법령이 핵심적 역할을 하게 된다. 이에 과학기술정보통신부는 총 70여 차례의 산업계·학계·시민단체·관계부처 등의 의견수렴을 거쳐 하위법령 초안을 마련했다. 과학기술정보통신부가 지난 8일 발표한 AI 기본법 하위법령 제정방향에 따르면 하위법령 초안은 AI 연구개발 지원, 학습용 데이터 구축, 중소기업·창업 지원, 전문 인력 양성, 해외 진출 지원 등 다양한 AI 산업 진흥 조치를 담고 있다. 산업 전반에서 AI 도입을 촉진하고 기업이 기술 변화를 선도할 수 있도록 유연한 제도적 기반을 마련하려는 의도가 뚜렷하다. 동시에 구체적인 안전·신뢰 확보 장치도 포함됐다. 더불어 생성형과 고영향 AI에는 사전 고지와 결과물 표시(워터마크) 의무가 부과되고 누적학습량이 일정 수준 이상인 고성능 AI에는 위험 식별과 평가, 완화 조치 등 안전 확보 의무가 부과된다. 또 생명·신체·기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 특정 영역(보건의료, 교통, 에너지, 교육, 원자력 등)에서 활용되는 AI 시스템인 고영향 AI에 대해서는 영역별 판단 기준과 위험관리방안, 이용자보호방안 등을 규정할 예정이다. 신뢰성 확보를 위한 구체적인 조치도 마련된다. 이 외에도 사업자가 자율적으로 실시하는 AI 영향평가가 도입되며 고영향 AI에 대해서는 영향평가 실시 노력 의무가 부과된다. 이같이 정부는 AI 기본법 하위법령 제정방향에서 가능한 한 AI 규제와 진흥 간 균형을 이루기 위해 노력한 것으로 보인다. 다만 스스로 자평하고 있듯이 글로벌 규범 동향과 국내 AI 산업의 발전을 고려해 규제보다는 진흥에 초점을 두고 있는 것으로 생각된다. 일례로 국방 및 국가안보 목적으로만 이용되는 AI는 기본법 적용 대상에서 제외하고 일정 기준을 충족하는 AI에 대해서만 투명성 및 안전성 의무 등이 부과된다. 더불어 AI의 영향평가 등에 대해서는 이를 강제하기 보다는 자율적 실시에 맡기고 있다. 특히 시행 초기에는 과태료 계도기간을 둬 규제를 단계적으로 적용함으로써 기업들의 혼란을 최소화할 수 있도록 설계했다. 규제와 진흥의 균형은 그 자체로 양면성을 지닌다. 규제에 무게를 두면 기업은 새로운 AI 개발에 신중해질 수밖에 없고 이는 혁신의 속도를 늦추게 된다. 특히 자본과 인력이 부족한 신생 기업에게는 규제를 준수해야 한다는 부담 자체가 초기 진입 장벽으로 작용할 위험이 크다. 반대로 진흥에만 치중하면 고도화된 AI로 인해 이용자의 기본권이 침해될 수 있고 국제 규범과의 정합성 측면에서 국내 AI의 안전성 및 신뢰성에 대한 의심이 싹틀 수 있다. 특히 비교적 구체적이고 구속력 있는 규제를 마련한 EU AI 법 등과 비교했을 때 국내의 AI 규제 체계가 과연 글로벌 기준에 부합하는 수준으로 진화할 수 있을지에 대한 의문도 남을 수 있다. 법적 불확실성을 줄이려는 노력 역시 장단을 동시에 가진다. 구체적 기준과 가이드라인이 제시되면 기업은 예측 가능한 환경에서 사업을 추진할 수 있어 불필요한 법적 분쟁을 피할 수 있다. 다만 세부 규정이나 가이드라인이 지나치게 경직되면 신속히 변하는 기술 발전을 따라가지 못한다. 반대로 규정이 지나치게 느슨하면 이용자의 신뢰를 확보하기 어렵다. 법적 불확실성을 줄이는 것이 반드시 규제의 실효성을 담보하는 것은 아니며 효과적인 규제를 마련하기 위해서는 유연성과 안정성 사이의 균형을 이루는 것이 관건이다. 이번에 정부가 제시한 AI 기본법 하위법령 제정방향은 계도기간 운영, 컨설팅·비용 지원, 인센티브 부여 등 사업자의 실질적인 부담을 줄여주는 장치를 많이 두고 있다는 점에서 기업에게는 보다 친화적인 규제라고 볼 수 있다. 다만 국제 규범과의 정합성, 규제 실효성, 이용자 신뢰 확보라는 과제는 여전히 남아 있다. 특히 EU와 같은 강력한 규제 체계를 갖춘 국가들과 교역하는 상황에서 국내 기업이 두 체계 사이의 간극을 어떻게 메울지도 중요한 문제로 떠오를 것이다. 현재로서는 AI라는 새로운 기술에 대한 규제가 실제로 기술 발전과 국민 안전에 어떤 영향을 미칠지, 어느 정도의 실효성을 가질지 예측하기 어렵다. 이에 엄격한 규제보다는 산업 진흥에 보다 무게를 두는 것이 시대적 흐름에 부합하다. 그런 점에서 이번 정부의 하위법령 제정 방향은 바람직하다고 생각된다. AI 기본법 하위법령은 결국 기업과 정부 모두에게 시험대가 될 것이다. 산업계는 내부적으로 AI 기획·개발·운영 단계별 법적 검토 기준을 마련하고 이를 체계적으로 관리할 수 있는 거버넌스를 구축해야 한다. 정부는 AI 기본법 집행 과정에서 산업 진흥과 이용자 보호 사이의 균형이 실제로 구현될 수 있도록 지속적으로 제도를 고도화할 필요가 있다. 내년 AI 기본법 시행 이후 이 법이 단순한 선언에 그치지 않고 실질적인 안전과 신뢰를 담보하면서도 혁신을 뒷받침하는 제도가 될 수 있을지, 그 결과가 곧 한국형 AI 거버넌스의 성패를 가늠하게 될 것이다.

2025.09.12 17:44오세인 법무법인 태평양 컬럼니스트

AI 기업 플리토, 음성 데이터 활용 검토 위해 로펌 3곳 찾아간 이유는?

"지금 인공지능(AI)은 사회 전반에 걸쳐 변화를 촉진하는 핵심 동력으로 자리 잡고 있습니다. 동시에 데이터 활용을 둘러싼 법적 유기적 과제도 점점 더 복잡해지고 있습니다. 앞으로 데이터를 어떻게 안전하게 보호하고 활용하면서도 개인 정보와 기본권을 잘 지킬 수 있을지에 대해 정부와 학계, 산업계가 같이 고민하면서 해결책을 찾아야 우리나라 AI 경쟁력도 성장할 수 있을 것입니다." 조경식 법무법인 태평양 고문은 지난 10일 오후 서울 종로구에서 'AI G3 시대, 안전한 데이터 활용을 위한 패러다임의 전환'을 주제로 진행된 고객 초청 세미나를 통해 이처럼 강조했다. 최근 이재명 정부에서 'AI 3대 강국(AI G3)' 도약을 목표로 AI 정책과 사업을 쏟아내고 있는 동시에 각 기업들이 AX(AI 전환) 도입에 대한 고민을 하고 있지만, 국내 데이터의 정책과 활용법은 정작 명확치 않다는 판단에서다. 데이터는 현대 비즈니스의 핵심 자산으로, 업계에선 이를 효과적으로 활용하는 기업이 시장에서 경쟁 우위를 차지할 수 있다고 본다. 특히 AI 시대를 맞아 데이터가 기술 개발의 필수 요소로 자리 잡으면서 관련 시장도 빠른 속도로 커지고 있다. 11일 과학기술정보통신부와 한국데이터산업진흥원(KDATA)이 발간한 '데이터 산업 현황 조사' 보고서에 따르면, 국내 데이터 산업 시장 규모는 지난 2023년 27조1천513억원에서 매년 12.7%씩 성장해 오는 2028년에는 49조원을 넘어설 것으로 전망됐다. 또 양질의 데이터를 얼마나 잘 확보하느냐에 따라 AI 경쟁력이 갈린다는 점에서 데이터를 제대로 정제해 활용할 수 있는지에 대한 관심도 점차 커지고 있다. 하지만 우리나라에선 AI 학습 과정에서 데이터를 활용하는 데 '저작권'과 '개인정보 규제'가 성장의 걸림돌로 작용하고 있다. 또 산업별로 서로 다른 데이터 규제가 적용되고 있다는 점도 기업들의 혼란을 가중시키고 있다. 특히 개인정보보호법은 여전히 '사전동의'라는 단일 축에 과도하게 의존하고 있다. 그러나 AI 개발 과정에서 데이터의 목적을 사전에 특정하는 것은 거의 불가능할 뿐만 아니라 기술적으로도 활용하기 쉽지 않다는 지적을 받고 있다. 새로운 AI 서비스가 만들어질 때마다 일일이 구체적인 동의를 다시 받아야 한다는 점도 한계점으로 꼽힌다. 이에 몇 차례 개정을 통해 개인정보 처리 근거 규정을 도입했지만 적용 범위와 기준이 불명확하다는 평가를 받고 있다. 또 법원에서도 빠르게 변화는 기술 환경을 이해하지 못하고 개인정보보호법을 엄격하게 해석하는 분위기라는 점에서 기업들이 데이터를 제대로 활용하기 어렵다는 분석이 나오고 있다. 법무법인 태평양 고객 초청 세미나에서 'AI 발전을 위한 데이터 체계의 보완 필요성'을 주제로 발표한 이정수 플리토 대표는 "최근 미국 기업이 우리 회사에 개개인의 음성 데이터를 모아 달라고 말하며 80억원 규모의 거래 제안을 했었다"며 "음성 데이터가 개인 생체 정보여서 민감도가 높아 로펌 3곳에 법적 검토를 받았더니 해석이 다 달랐다"고 말했다. 이어 "로펌도, 우리 같은 데이터 기업들도 요즘 데이터를 활용할 때 어떤 규제가 적용되는지에 대해 명확히 알 수 있는 방법이 없어 고민이 많다"며 "국가 차원에서 정확하게 데이터 활용 가이드라인을 알려줘야 기업들이 혼란 없이 활용할 수 있을 뿐 아니라 AI 산업을 발전시키는 데 도움이 되지 않을까 싶다"고 덧붙였다. 또 이 대표는 국내 데이터 시장이 ▲언어 자원의 부족 ▲대기업·플랫폼 중심의 데이터 편중 ▲법·제도 불확실성 등의 문제로 성장이 더디다고 분석했다. 특히 영어 대비 한국어 데이터 규모가 현저히 적은 데다 구어·전문분야 데이터가 부족하고 방언·다문화 언어 데이터가 거의 없다는 점을 아쉬워 했다. 또 기관 간 데이터 연계 부재, 스타트업·중소기업의 데이터 접근 불가, 저작권 경계 불명확에 따른 학습 데이터 활용 제약, 명확한 가이드라인·샌드박스 제도 부재 등을 하루 빨리 개선해 나가야 한다고 주장했다. 이 대표는 "우리나라의 정서가 담긴 '소버린 AI'를 구축해야 한다는 목소리가 커지고 있는 상황에서 데이터와 관련된 제도들이 하루 빨리 개선되지 않는다면 주권 자체가 상당히 위협 받는 상황이 생길 수 있다"며 "데이터 산업 발전을 저해하는 요소들을 없애기 위해 법적, 제도적으로든 해결책이 조속히 마련될 수 있길 바란다"고 피력했다. 이후 발표에 나선 이수화 법무법인 태평양 변호사는 개인정보 적법처리를 근거로 AI를 어떻게 활용해야 할 지에 대한 가이드를 제시했다. 개인정보보호법 제15조에 따르면 ▲정보주체의 동의 ▲계약의 이행 등을 위해 필요 ▲정보처리자의 정당한 이익 ▲법률 규정 법령상 의무 ▲공공기관의 업무 ▲급박한 생명·신체 이익 ▲공공의 안전과 안녕 등 적법처리 근거를 갖춰야 AI 학습에 개인정보를 활용할 수 있도록 규정돼 있다. 이 변호사는 "AI 시스템 개발을 위한 3요소를 요리에 비유하자면 식재료가 데이터, 알고리즘이 레시피, 컴퓨팅파워는 조리기구라고 볼 수 있다"며 "양질의 충분한 데이터가 없으면 다른 것들이 구현되기 어려운데 국내 정부 정책과 대중적 관심은 부족한 게 현실"이라고 짚었다. 이어 "기존 법체계는 지나치게 경직돼 있어 혁신을 따라가지 못하는 데다 경계가 모호해 실무에서 데이터를 제대로 활용하기 어려울 때가 많다"며 "최근 국회와 정부가 규제 완화 흐름에 나서고 있다는 점은 긍정적"이라고 평가했다. 그러면서 "최근 공개된 AI기본법 시행령 초안에서도 데이터 지원 사업 내용이 상당히 구체화됐다는 점은 AI와 데이터가 상당한 연관 관계가 있다고 인지한 것으로 보인다"며 "이를 토대로 앞으로 데이터를 얼마나 잘 활용할 수 있을지 기대된다"고 덧붙였다. 이 변호사는 최근 발의된 개인정보보호법 개정안들도 규제 완화 흐름의 또 다른 예로 짚었다. 올 초 더불어민주당 민병덕 의원과 국민의힘 고동진 의원이 발의한 이 법안들은 AI의 기술 개발, 성능 개선을 위해 원본 데이터를 학습데이터로 정보주체의 동의없이 활용할 수 있도록 하는 것이 골자다. 이 변호사는 "이 조항들이 시행되면 기업들이 새로운 AI 모델을 개발할 때마다 별도의 동의를 다시 받지 않아도 될 것"이라며 "규제는 완화되지만, 개인정보 침해 우려가 커질 수 있다는 점에서 기업들도 관심을 갖고 이런 부분을 수시로 체크해 봐야 할 것"이라고 조언했다. 이 변호사는 기업들이 AI 서비스를 개발할 때 개인정보 관련 적법성 여부를 판단하기 어려울 때 '사전적정성 검토제'와 '규제 샌드박스'도 적극 활용할 것을 제안했다. 또 AI를 도입할 때 ▲AI 서비스 이용 계약 ▲특별 보호가 필요한 개인정보 처리 ▲임직원·고객향 이용 가이드 마련 등을 체크해볼 것을 권유했다. 그는 "기업들은 사생활을 현저히 침해할 우려가 있는 정보나 주민등록번호 등 고유식별정보, 14세 미만 아동의 개인정보, 휴대전화번호 등을 노출하는 것에 대해 별도 동의나 사전학습단계에서 삭제하는 방안을 충분히 살펴봐야 한다"며 "AI 서비스를 활용할 때도 국외 이전 위험은 없는지, 기업 기밀을 학습용 데이터로 활용하거나 데이터가 귀속되는지 등에 대한 부분을 계약서 작성 시 면밀히 봐야할 것"이라고 강조했다. 그러면서 "자체 검토가 힘들 때는 '개인정보보호·AI팀'을 운영하고 있는 우리처럼 로펌에게 자문을 요청하는 것도 도움이 될 것"이라고 덧붙였다. 이날 세미나에 참석한 최장혁 개인정보보호위원회 부위원장은 "현재 AI 사업과 관련해 저작권과 개인정보보호법이 가장 논의의 중심에 서 있는 듯 하다"며 "올 초 AI기본법이 통과된 후 중국 '딥시크 쇼크'까지 일어나면서 이에 대한 고민이 더 많아진 것 같다"고 강조했다. 이어 "규제 샌드박스 등을 통해 데이터를 활용할 수 있는 문턱을 낮추고자 했음에도 AI 발전을 막는 주범으로 꼽힐 때가 있는 듯 하다"며 "우리나라뿐 아니라 전 세계 각국 감독기관이 AI 시대를 맞아 프라이버시에 대해 함께 방향성을 고민해봐야 할 듯 하다"고 덧붙였다.

2025.09.11 12:22장유미 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

[AI칩 전국시대 ①]韓 AI반도체 현주소: '엔비디아 대항마'를 넘어 실전으로

[타보고서] 650마력·제로이백 10.9초…'제네시스 GV60 마그마'

[AI는 지금] 로펌 판 바꾸는 AI…리걸테크 200조 시장 열린다

비트코인, 6만7000달러대까지 후퇴…"위험 증폭 가짜 자산"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.