• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'태평양 AI'통합검색 결과 입니다. (34건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI 리더스] ICT 규제 대응 '톱티어' 박지연…"태평양 TMT, 복합 리스크 해결 자신"

인공지능(AI)과 플랫폼 산업 확산으로 ICT 규제가 산업 전반으로 확대되면서 로펌 조직 구조도 변화하고 있다. 과거 '사후 처벌'에 그쳤던 규제도 전례 없는 불확실성에 직면하면서 이제 서비스 기획 단계부터 개입하는 '사전 설계' 중심으로 패러다임이 바뀌고 있는 분위기다.법무법인 태평양(BKL)이 기존 TMT(Technology∙Media∙Telecommunication)팀을 올 들어 'TMT그룹'으로 격상한 것도 이 같은 환경 변화를 반영한 조치다. 국내 로펌 최초로 TMT 전담팀을 만든 태평양은 이번에 다시 한 번 조직 체계를 고도화함으로써 국내 2위를 넘어 1위 로펌으로 도약하기 위한 발판 마련에 본격 나섰다. 태평양 TMT그룹을 이끌게 된 박지연 변호사는 13일 지디넷코리아와의 인터뷰에서 "ICT 산업에서는 이제 규제 불확실성 자체가 기업 경쟁력의 중요한 변수로 작용하고 있다"며 "사건 대응을 넘어 사업 설계 단계부터 리스크를 함께 검토하는 조직이 로펌에서도 필요해졌다"고 말했다. 이어 "단순한 법률 해석을 넘어 정책적 가이던스와 비즈니스 구조를 동시에 설계하는 '종합 솔루션'이 로펌의 본업이 됐다"며 "TMT그룹 격상은 단순한 외형 확대가 아니라 복합 규제 환경에 대응하기 위한 전략적 재편"이라고 강조했다. 국내 최초 TMT팀, 그룹 체제로 재편…사건 대응서 '전략 설계'로 태평양은 1980년대 후반 국내 로펌 최초로 TMT 전담팀을 출범시켰다. 당시에는 통신·방송·IT 규제가 산업 전반의 핵심 변수로 부상하던 시기였다. 이후 인터넷과 모바일 환경이 확산되면서 ICT 규제는 플랫폼과 개인정보 영역으로 빠르게 확대됐다. 최근에는 디지털금융·가상자산·AI까지 포함하는 다층적 구조로 진화하면서 개별 법률 이슈가 아니라 복합 규제 환경 전체를 다뤄야 하는 단계에 들어섰다. 이 같은 질적 변화에 대응하기 위해 태평양은 기존 팀 단위 체계에 변화를 줬다. ICT 산업이 복합 규제 환경으로 빠르게 전환되면서 각 사건에 대해 정책 변화, 기술 구조, 시장 전략 등을 각각 따로 자문하지 않고 하나의 의사결정을 중심으로 하는 원스톱 통합 대응 체계를 구축하는 것이 필요하다고 판단해서다.또 TMT 그룹장으로 박지연 변호사(사법연수원 31기)도 선임했다. 박 그룹장은 AI, 방송·통신, 개인정보, 게임, 디지털금융, 블록체인 등 각 영역에서 풍부한 경험과 전문성을 갖춘 박종백(18기), 류광현(23기), 김영수(29기), 강태욱(31기), 이정명(34기), 윤주호(35기), 정상훈(35기), 이수화(변시1회), 이강혜(변시2회), 이준호(변시5회), 오세인(변시5회), 박주성(변시5회) 변호사 등과 함께 업무를 수행하게 됐다. 여기에 글로벌 빅테크 기업 자문 경험을 바탕으로 국제 감각을 갖춘 손지영 외국변호사와 정호영 외국변호사도 참여했다. 특히 박 그룹장은 '2026 챔버스(Chambers Asia-Pacific) TMT 분야 리딩로이어'와 '2025 ALB(Asian Legal Business) 아시아 TMT 우수 변호사 50인'에 선정된 ICT 분야의 대표적인 전문가란 점에서 업계에서도 높은 관심을 받고 있다. 박 그룹장은 "과거에는 방송·통신·IT 기업 중심의 규제 대응이 주된 업무였다"며 "지금은 디지털 전환이 전 산업으로 확산되면서 관련 규제가 모든 산업에 적용되는 환경이 됐다"고 설명했다. 그러면서 "플랫폼, 개인정보, AI 등 여러 규제가 동시에 작동하는 지금 구조에서는 개별 사건 중심 대응만으로는 충분하지 않다"며 "앞으로는 사업 구조 설계 단계부터 법·정책·기술 리스크를 함께 검토해야 한다"고 강조했다. 특히 AI 확산 이후 규제가 사후 제재 중심에서 사전 설계 중심으로 전환되면서 TMT 그룹의 역할 범위도 한층 확대되고 있다. 정부가 가이드라인 제시와 사전 설명회를 통해 기업의 선제적 대응을 요구하는 방향으로 정책 기조를 조정하고 있어서다.박 그룹장은 "AI 기본법처럼 최근 시행과 동시에 가이드라인을 제시하는 방식이 늘고 있다"며 "기업도 기획 단계에서부터 규제 대응을 전제로 의사결정을 해야 하는 환경"이라고 진단했다.이어 "서비스가 이미 시장에 안착한 이후 규제가 들어오면 구조를 바꾸는 데 훨씬 더 큰 비용이 든다"며 "초기 단계에서부터 규제 리스크를 예상하고 대응 시나리오를 준비하는 것이 리스크를 최소화하는 방법"이라고 덧붙였다.그는 이 과정에서 로펌의 역할은 단순히 위험을 경고하는 데 그쳐서는 안 된다고 강조했다. 규제 리스크의 성격과 수준을 구체적으로 분석해 기업이 감수 가능한 범위를 판단할 수 있도록 기준을 제시하는 것이 중요하다고 봤다. 또 규제가 사후적으로 집행되는 구조에서는 기업이 이미 시장에 진입한 이후에야 부담이 현실화되는 만큼, 초기 단계에서의 판단도 더욱 중요해지고 있다고 피력했다. 박 그룹장은 "사후 제재 중심 접근으로는 빠르게 변화하는 AI 환경을 따라가기 어렵다"며 "사전 설계 단계에서 법·정책 검토가 함께 이뤄지는 구조로 전환돼야 한다"고 강조했다. 매트릭스 협업, 고난도 사건서 성과 태평양 TMT 그룹의 차별점으로는 '매트릭스 조직 체계'가 꼽힌다. 태평양은 법인 차원에서 부서 간, 전문가 간 벽을 허무는 협업 구조를 운영 중으로, 특정 부서 중심이 아닌 사건 성격에 따라 변호사·고문·전문위원이 유기적으로 참여하도록 유도하고 있다.실제 TMT 그룹에는 과학기술정보통신부 차관을 역임한 조경식 고문과 과학기술정보통신부 지식재산전략기획단장을 지낸 정완용 고문, 정보통신산업진흥원장 출신 허성욱 고문, 방송미디어통신위원회 출신 황선철 고문, 과학기술정보통신부 출신 조현진 전문위원, 정보통신정책연구원 출신 김득원 전문위원, 금융감독원을 거쳐 빗썸 부사장을 지낸 최희경 전문위원, 한국인터넷진흥원 출신 여돈구 전문위원 등도 함께 참여해 정책·제도 변화에 대한 입체적인 분석과 전략적 자문을 제공 중이다. 덕분에 태평양은 그간 복합 규제 리스크 사건에서 성과를 냈다. 바이낸스의 국내 가상자산시장 진출 자문, 메타 과징금 행정소송, 틱톡 개인정보위원회 조사 대응 등 고난도 사건에서 매트릭스 조직의 협업 역량을 발휘해 주목받았다. 이러한 성과에 힘입어 태평양은 지난해 총 매출 4702억원을 기록하며 법무법인 광장을 꺾고 로펌업계 2위로 올라섰다. 박 변호사는 "우리는 파트너 변호사들이 업계 동향과 주요 쟁점을 실시간으로 공유한다"며 "개인의 판단이 아니라 집단적 논의를 통해 전략을 정리하는 구조가 TMT 그룹의 핵심 경쟁력"이라고 말했다. 이어 "담당 파트너가 큰 방향만 설정하는 것이 아니라 규제기관 대응과 주요 서면 작성까지 직접 관여하는 점도 차별화 요소"라며 "서비스 구조와 기술 작동 방식까지 정확히 이해해야 실효성 있는 자문이 가능한 만큼, TMT 그룹처럼 정책·기술 이해를 함께 갖춘 협업 구조가 필요하다"고 덧붙였다.또 그는 변호사가 어디까지 기술을 이해해야 하는지에 대해서도 구체적인 기준을 제시했다. 특히 AI·플랫폼 분야에서는 데이터 흐름과 시스템 설계 방식에 따라 법적 평가가 달라질 수 있다는 점을 강조했다.박 그룹장은 "변호사는 서비스가 어떤 구조로 작동하고, 데이터가 어떤 경로로 수집·처리·활용되는지를 정확히 이해해야 한다"며 "이를 통해 실제 위법 리스크를 제대로 진단할 수 있을 것"이라고 밝혔다. 가상자산·사이버 리스크, 전담 조직으로 선제 대응 TMT 그룹 내 디지털자산TF와 사이버침해 대응센터 신설도 이러한 복합 규제 환경에 대응하기 위한 조치다. 디지털자산은 제도권 편입이 진행되고 있지만 정책 방향이 빠르게 변화하는 영역으로, 규제 불확실성이 큰 분야로 꼽힌다. 사이버 침해 역시 단순한 법률 문제에 그치지 않는다. 사고 발생 시 규제기관 조사 대응은 물론, 평판 관리와 대정부·국회 대응까지 동시에 요구되는 고위험 사안으로 확장되고 있다.이에 태평양은 TMT 그룹 아래 각각의 전문성 강화를 위해 디지털금융, 가상자산을 전담하는 '디지털자산TF'와 해킹∙정보유출 등 사이버 보안 리스크에 대응하는 '사이버침해 대응센터'의 수장으로 각각 강태욱 변호사, 윤주호 변호사를 선임했다. 이를 통해 여러 이슈가 결합된 복합 위기 상황에서도 신속하고 일원화된 대응이 가능하도록 통합 대응 체계를 갖췄다. 박 그룹장은 "가상자산은 규제 체계가 정립되는 과정에 있고, 사이버 침해는 기업 존립과 직결되는 리스크로 부상했다"며 "사건 발생 이후 대응뿐 아니라 사전 준비와 통합 관리 체계가 필요하다"고 말했다. 이어 "특히 사이버 침해는 조사 대응만으로 끝나는 사안이 아닌, 규제기관 대응과 언론 대응, 향후 서비스 구조 정비까지 동시에 고려해야 하는 복합 이슈"라며 "이처럼 여러 리스크가 동시에 작동하는 영역일수록 개별 사건 대응이 아니라 통합적인 전략 수립이 중요하다"고 덧붙였다.또 그는 대형 사고 중 상당수가 접근 통제 미비, 내부 관리 소홀 등 기본적인 통제 장치의 허점에서 비롯된다는 점도 지적했다. 이에 보안을 단순 비용이 아닌 기업의 지속 가능성과 직결된 필수 투자로 인식해야 한다고 강조했다. 박 그룹장은 "실제 사고를 보면 기본적인 보안 조치 미비나 내부 관리 부실에서 비롯되는 경우가 적지 않다"며 "보안은 비용이 아니라 기업의 신뢰와 존립을 지키기 위한 최소한의 투자라는 인식 전환이 필요하다"고 말했다. 이어 "사고가 발생한 뒤 대응 비용과 평판 훼손까지 감안하면, 사전 투자와 내부 통제 강화가 오히려 훨씬 합리적인 선택"이라고 덧붙였다. "복합 규제 시대, 기업 전략 파트너로 도약" 이를 바탕으로 박 그룹장은 태평양 TMT그룹을 단순한 규제 대응 조직이 아닌 '전략 파트너'로 자리매김하겠다는 구상을 밝혔다. AI·플랫폼·디지털금융 등 규제가 중첩되는 환경에서는 법령 해석을 넘어 정책 기조와 사업 구조를 종합적으로 판단해야 한다는 점에서다. 그는 "ICT 규제는 고정된 체계라기보다 산업과 상호작용하며 계속 변화하는 성격이 강하다"며 "완결된 법을 적용하는 것이 아니라 형성 과정에 있는 제도를 어떻게 해석하고 대응할지 판단하는 영역이 많다"고 말했다. 이어 "이럴수록 단편적인 자문이 아니라 사업 구조 전반을 함께 검토하는 접근이 필요하다"고 강조했다. 특히 국내 규제와 글로벌 규제가 충돌하는 사례가 늘고 있는 점도 기업 부담을 키우는 요인으로 지목했다. 글로벌 빅테크 기업의 입장에서 플랫폼 규제, 개인정보 규제 수준 차이 등은 단순한 법률 문제를 넘어 전략적 판단을 요구하고 있다고 봤다. 박 그룹장은 "글로벌 규제와의 충돌뿐 아니라 국내에서도 규제기관마다 집행 기준이 달라 기업들이 혼란을 겪는 경우가 적지 않다"며 "유사한 사안을 두고도 적용 법리와 제재 수위가 달라지는 상황은 기업 입장에서 예측 가능성을 떨어뜨리는 요인"이라고 지적했다.이어 "이 과정에서 법률적 판단과 정책적 전망을 함께 제시하는 것이 로펌의 역할"이라며 "규제 리스크를 통제 가능한 범위로 관리하면서도 사업 기회를 살릴 수 있는 해법을 제시하는 것이 TMT 그룹의 목표"라고 부연했다. 또 그는 앞으로 TMT 그룹을 통해 단순 사건 대응을 넘어 규제 환경 변화에 대한 선제적 분석 기능도 강화할 계획이라고 밝혔다. 이를 위해 법령 개정 동향과 집행 기조를 상시 모니터링하고, 산업계의 애로사항을 정책 논의 과정에 반영하는 역할까지 확대하겠다는 구상이다.다만 그는 사건 발생 직후 여론에 밀려 규제가 급격히 강화되는 이른바 '반작용 입법'에 대해선 우려를 표했다. 산업에 미칠 파급효과를 충분히 검토하지 않은 채 강한 규제가 도입될 경우 오히려 시장 위축이나 규제의 사문화로 이어질 가능성도 있다고 봐서다. 이에 단기 대응이 아니라 큰 흐름을 보는 입법 설계가 필요하다고 강조했다. 박 그룹장은 "AI 시대에는 선례가 충분히 축적되지 않은 영역이 많다"며 "결국 규제 방향을 읽고 복합 리스크를 종합적으로 판단할 수 있는 조직이 경쟁력을 갖게 될 것"이라고 말했다. 이어 "TMT 그룹은 규제와 산업을 연결하는 접점에서 기업이 방향을 설정할 수 있도록 돕는 역할을 앞으로 더 강화해 나가겠다"고 마무리했다.

2026.02.13 10:16장유미 기자

AI 규제 시대 본격화…태평양, TMT그룹으로 판 키운다

급변하는 정보통신기술(ICT) 산업 환경에서 인공지능(AI), 플랫폼 규제, 개인정보보호, 디지털금융, 가상자산, 사이버보안 등 복합적인 법률·규제 이슈가 동시에 확산되고 있는 가운데 법무법인 태평양(BKL)이 조직 개편을 통해 기업 수요 공략에 나선다. 태평양은 기존 TMT 팀을 'TMT 그룹'으로 확대 개편한다고 30일 밝혔다. 최근 ICT 산업이 복합 규제 환경으로 빠르게 전환되면서 각 사건에 대해 정책 변화, 기술 구조, 시장 전략 등을 각각 따로 자문하지 않고 하나의 의사결정을 중심으로 하는 원스톱 통합 대응 체계를 구축하는 것이 필요하다고 판단해서다. TMT(Technology∙Media∙Telecommunication) 팀은 1980년대 후반 태평양이 국내 로펌 최초로 신설한 전담 조직으로, 그간 ICT 분야 규제 대응의 '퍼스트 무버(First Mover)'로서 시장을 선도해 왔다. 또 2000년대 융·복합 산업의 확산과 함께 국회, 행정부, 지방자치단체를 아우르는 규제 대응 역량을 입증했다. 더불어 과학기술정보통신부, 방송미디어통신위원회, 개인정보위원회 등 주요 규제기관과의 면밀한 협의를 통해 조사 및 규제 대응 사건에서 최선의 결과를 이끌어 내는 등 국내 최고 수준의 전문성을 인정받아 왔다. 특히 태평양은 국내 주요 이동통신사와 방송사뿐만 아니라 네이버, 카카오, 쿠팡 등 빅테크 기업을 밀착 대리하며 국내 ICT 산업의 기틀을 마련해 왔다. 또 메타, 바이트댄스(틱톡), 넷플릭스 등 글로벌 온라인 플랫폼을 비롯해 퀄컴, 알리익스프레스, 화웨이 등 전 세계 ICT 시장을 주도하는 주요 글로벌 기업들을 대리하며 고난도의 사건들을 성공적으로 수행했다. 이 같은 경험을 바탕으로 태평양은 TMT 그룹을 통해 기업이 직면한 규제 리스크를 사후적으로 대응하는데 그치지 않고 사업 전략 단계부터 법률∙정책∙제도∙비즈니스를 동시에 설계하는 '전략적 파트너' 역할을 수행한다는 방침이다. 또 그룹장은 박지연 변호사(사법연수원 31기)가 맡아 AI, 방송·통신, 개인정보, 게임, 디지털금융, 블록체인 등 각 영역에서 풍부한 경험과 전문성을 갖춘 박종백(18기), 류광현(23기), 김영수(29기), 강태욱(31기), 이정명(34기), 윤주호(35기), 정상훈(35기), 이수화(변시1회), 이강혜(변시2회), 이준호(변시5회), 오세인(변시5회), 박주성(변시5회) 변호사 등과 함께 업무를 수행하게 된다. 여기에 글로벌 빅테크 기업 자문 경험을 바탕으로 국제 감각을 갖춘 손지영 외국변호사와 정호영 외국변호사도 참여한다.특히 박 변호사는 '2026 챔버스(Chambers Asia-Pacific) TMT 분야 리딩로이어'와 '2025 ALB(Asian Legal Business) 아시아 TMT 우수 변호사 50인'에 선정된 ICT 분야의 대표적인 전문가란 점에서 높은 관심을 받고 있다. 또 TMT 그룹에는 과학기술정보통신부 차관을 역임한 조경식 고문과 과학기술정보통신부 지식재산전략기획단장을 지낸 정완용 고문, 정보통신산업진흥원장 출신 허성욱 고문, 방송미디어통신위원회 출신 황선철 고문, 과학기술정보통신부 출신 조현진 전문위원, 정보통신정책연구원 출신 김득원 전문위원, 금융감독원을 거쳐 빗썸 부사장을 지낸 최희경 전문위원, 한국인터넷진흥원 출신 여돈구 전문위원 등도 함께 참여해 정책·제도 변화에 대한 입체적인 분석과 전략적 자문을 제공한다.이 외에도 태평양은 TMT그룹의 전문성 강화를 위해 디지털금융, 가상자산을 전담하는 '디지털자산TF'와 갈수록 고도화되는 해킹∙정보유출 등 사이버 보안 리스크에 대응하는 '사이버침해 대응센터'도 조직했다. 이를 통해 여러 이슈가 결합된 복합 위기 상황에서도 신속하고 일원화된 대응이 가능하도록 통합 대응 체계를 갖췄다.박지연 태평양 TMT그룹장은 "ICT 산업은 기술 변화 속도만큼 규제 환경도 빠르게 진화하고 있다"며 "태평양 TMT그룹은 사건 대응에 그치지 않고 정책 방향과 시장 구조까지 함께 분석해 기업의 사업 전략 단계부터 리스크를 설계하는 파트너가 되겠다"고 말했다. 이어 "AI 시대의 복합 규제 환경 속에서 기업이 신뢰할 수 있는 'ICT 종합 컨설팅 허브'로서 역할을 강화해 나가겠다"고 덧붙였다.

2026.01.30 10:34장유미 기자

[기고] 인공지능을 규율한다는 것의 의미

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 새로운 기술을 다루는 법은 언제나 늦거나 빠르다. 너무 늦으면 이미 현실을 따라잡지 못하고, 너무 빠르면 아직 정의되지 않은 위험을 과도하게 상정하게 된다. 인공지능(AI)을 둘러싼 최근 제도 설계 역시 이 오래된 딜레마 위에 놓여 있다. 현재 작동 중인 AI 관련 기본 규범은 즉각적인 통제를 목표로 하기보다 일정 기간 제도의 작동 가능성을 점검하는 방식을 선택했다. 이는 단순한 행정 편의나 정치적 타협 결과로 보기 어렵다. 오히려 기술 특성을 전제로 한 선택에 가깝다. AI는 고정된 제품이 아니라 학습과 적용을 통해 끊임없이 성격이 변하는 체계라서다. 이런 기술을 전통적인 규제 방식으로 포섭하면 규범은 곧바로 현실과 어긋날 위험을 안게 된다. 무엇이 위험한지, 누가 책임을 져야 하는지, 어느 단계에서 개입해야 하는지에 대한 사회적 합의가 아직 충분히 축적되지 않은 상태에서 강한 집행을 전제로 한 규칙을 설계하는 것은 오히려 혼란을 키울 수 있다. 문제는 이 과도기가 '아무 일도 하지 않는 시간'으로 오해될 가능성이다. 실제 현장에서는 제도가 존재함에도 불구하고, 무엇을 기준으로 준비해야 하는지 판단하지 못하는 경우가 적지 않다. 이는 규범이 추구하는 방향이 불분명해서라기보다 추상적 원칙이 실무 언어로 충분히 전환되지 않은 탓이다. 법은 가치와 방향을 제시할 수 있지만 개별 서비스의 구조까지 설명해 주지는 않는다. 예컨대 위험을 어떻게 평가할 것인지, 자동화된 판단 과정에서 인간의 개입은 어느 수준까지 요구되는지, 이용자에 대한 설명은 어떤 방식으로 이행돼야 하는지와 같은 문제는 법 조문만으로 해결되기 어렵다. 결국 해석과 적용의 영역이 필연적으로 발생한다. 이 지점에서 중요한 것은 처벌 가능성이 아니라 판단 예측 가능성이다. 기업이나 개발 주체가 가장 어려움을 느끼는 것은 규제가 존재한다는 사실 그 자체가 아니다. 어디까지가 허용되고 어디부터가 문제 되는지 가늠하기 어렵다는 데 있다. 기준이 명확하지 않으면 혁신은 위축되거나 반대로 무책임하게 확장된다. 현재 제도 운용 국면은 규칙을 집행하는 단계라기보다 규칙이 실제 작동할 수 있게 다듬는 과정으로 이해하는 편이 타당하다. 행정 해석, 사례 축적, 산업계와의 상호작용을 통해 원칙이 구체화되지 않으면 이후 강한 집행은 정당성을 확보하기 어렵다. 동시에 이 시기는 기업 내부 준비가 요구되는 시점이기도 하다. 외부 강제력이 약하다고 해서 책임까지 유예되는 것은 아니다. 데이터 출처와 관리 방식, 알고리즘 검증 절차, 결과에 대한 설명 가능성 등은 사후 대응이 아니라 사전 설계 문제다. 이런 점검은 규제를 피하기 위한 방어 수단이 아니라, 기술에 대한 신뢰를 확보하기 위한 최소 조건에 가깝다. 종종 규범은 혁신 반대편에 서 있는 것으로 인식된다. 그러나 명확한 기준이 없는 환경이 반드시 자유로운 환경을 의미하지는 않는다. 오히려 불확실성이 클수록 의사결정 비용은 증가하고 책임은 개인에게 과도하게 전가된다. 합리적인 규칙은 위험을 줄이는 동시에 기술이 사회 안에서 수용될 수 있는 경로를 마련한다. AI를 둘러싼 제도는 지금 질문을 던지고 있다. 얼마나 빨리 통제할 것인가가 아닌, 어떤 방식으로 책임을 배분할 것인가에 대한 질문이다. 기술 속도를 억제하는 것이 목적이 아니라 그 속도가 사회적 신뢰와 충돌하지 않도록 조정하는 것이 핵심이다. 이 과정을 통해 마련된 기준은 향후 집행의 출발점이 될 것이다. 그 기준이 경직된 잣대가 될지, 합리적인 신호가 될지는 지금의 제도 운용과 준비에 달렸다. AI를 다룬다는 것은 결국 기술을 규율하는 일이 아니라 기술을 사용하는 우리의 방식을 설계하는 일이기 때문이다.

2026.01.29 16:19정상훈 컬럼니스트

[AI기본법 시행①] 韓, '세계 최초' 타이틀…"해외 기업과 역차별 없어야"

한국 정부가 전 세계 처음으로 인공지능(AI)기본법 시행을 앞두면서 업계 안팎에서 기대와 우려가 동시에 나오고 있다. 제도가 비교적 무리 없이 안착할 것이라는 전망과 급속한 AI 기술 발전 속도에 맞춰 충분한 준비가 이뤄졌는지를 두고 엇갈린 평가가 공존하고 있다. 19일 과학기술정보통신부에 따르면 AI기본법은 2024년 12월 26일 국회 본회의를 통과한 뒤 지난해 1월 21일 공포됐다. 법 시행 시점은 공포 후 1년이 지난 이달 22일로 예정됐다. 전문가들 사이에서는 AI기본법이 단순 규제를 넘어 국내 기업이 해외 시장으로 확장하는 과정에서 신뢰 표준이 될 수 있다는 점을 높게 평가하고 있다. 글로벌 규제 환경 속에서 일정한 법적 틀을 갖추는 것이 오히려 산업 경쟁력에 도움이 될 수 있다는 입장이다. 일각에서는 유럽연합(EU)이나 미국과 달리 한국이 AI기본법 조기 시행을 선택한 배경에 우려를 표하고 있다. 준비 기간이 EU에 비해 지나치게 짧다는 지적이 잇따르고 있어서다. 실제 EU는 한국보다 법 제정 논의를 먼저 시작했지만, 실제 적용 시점은 내년 8월이다. EU집행위원회는 지난달 규제 부담을 완화하는 내용을 담은 '디지털 간소화' 방안도 내놨다. 특히 유럽에선 과도한 규제가 AI 산업 경쟁력을 약화할 수 있다는 우려가 지속적으로 나왔다. 특히 미국 빅테크 기업들이 규제 완화를 요구해 온 점도 EU 정책 기조 변화에 영향을 미쳤다는 분석이 나온다. 이런 흐름 속에서 정부가 '세계 최초 AI법'이라는 타이틀에 지나치게 집중한 나머지 현실을 충분히 반영하지 못한 채 법을 서둘러 추진한 것 아니냐는 우려가 나온 것이다. 법무법인 원 오정익 변호사는 AI기본법이 이미 통과돼 시행을 앞둔 만큼 이를 부정적으로만 평가하기는 어렵다고 밝혔다. 그는 "AI기본법은 처벌·제한뿐 아니라 일정한 기준점을 제시하는 역할을 할 것"이라며 "법이 산업에 미치는 영향을 복합적으로 봐야 한다"고 주장했다. 이어 "법 시행 이후가 더 중요하다"며 "신속한 개정과 조정, 보완이 상시적으로 이뤄질 수 있어야 한다"고 강조했다. 그러면서 "기존 법제처럼 경직된 운영이 아니라 기술 변화 속도에 맞춘 유연한 제도 운용이 중요할 것"이라고 내다봤다. AI기본법, 해외 기업에 무용지물?…"역차별 없어야" 현재 국내 업계에선 AI기본법이 한국 시장 진출한 해외 기업에는 무용지물일 수 있다는 우려가 나오고 있다. 국내 기업은 법을 어기면 AI기본법에 따라 처벌받지만 외국 AI 기업에 국내법을 바로 적용하기 어려울 수 있다는 이유에서다. 법무법인 태평양 강정희 변호사는 AI기본법에 일정 요건을 충족하는 해외 AI 기업에도 국내 대리인 지정 의무를 부과한 점에 주목했다. 강 변호사는 "규제 대상을 국내 기업에 한정하지 않고 역외 사업자까지 포함할 수 있는 집행 기반을 마련했다는 점에서 긍정적으로 본다"고 밝혔다. 이어 "해외 기업도 한국에서 고영향 AI와 고성능 AI에 대한 위험을 관리할 수 있도록 위험 식별·완화, 위험관리체계구축 등 거버넌스 의무까지 부과한 점도 지켜봐야 한다"며 "국내외 기업 관계없이 AI 위험을 관리하는 구조를 제도화했다는 점에서 규제 질적 전환으로 볼 수 있다"고 말했다. 국내 업계에서는 해외 AI 기업이 국내에 대리인을 지정해도 역차별은 발생할 수 있다고 우려하고 있다. 익명을 요청한 한 국내 AI 업계 관계자는 "해외 기업서 지정된 국내 대리인이 실무 관계자가 아니면 말이 다르다"며 "해당 기업 서비스나 보안상 문제가 발생할 경우 우리 정부가 대리인에 책임을 묻기도 곤란할 것"이라고 지적했다. 이어 "특히 빅테크 솔루션에 동시다발적 오류가 국내외서 발생할 경우, 이는 국내 AI법만으로 보상을 요구할 수도 없는 상황"이라고 말했다. 그러면서 "국내 기업이 AI 제품 개발·출시 과정에서 과도한 규제로 인해 역차별받아선 안 될 것"이라고 재차 당부했다. 오정익 변호사는 AI기본법 의무 부담을 기업에게만 넘기는 방식은 지양해야 한다고 주장했다. 오 변호사는 "국내외 기업 넘어서 국가 자체가 의무를 수행하는 방법도 효율적이다"고 설명했다. 그러면서 "AI 시대에 국가가 자국 기업이 글로벌 AI 생태계에서 기술을 잘 구현할 수 있도록 보조하는 방식으로 가야 한다"고 덧붙였다. "AI기본법 대응 출발점은 '고영향 AI 판단'" AI기본법을 앞두고 국내 업계도 철저한 준비가 필요하다는 의견이 이어졌다. 특히 AI기본법이 강조하는 고영향 AI나 일정 규모 이상 AI 시스템이 이에 해당하는지 확인부터 해야 한다는 설명이다. 전문가들은 물리·현실적 영역에 직접 영향을 미치는 AI 제품과 서비스가 늘고 있다는 점을 중요 변수로 꼽았다. 오정익 변호사는 "AI 시스템이 핵심 기능을 수행하는 제품과 로봇, 서비스가 늘고 있다"며 "기존 챗봇 중심 AI 활용과는 전혀 다른 국면에 접어들었다"고 진단했다. 이어 "AI 안전성과 신뢰성이 산업 전반 핵심 요건으로 부상한 이유"라며 "AI기본법이 강조하는 안정성·신뢰성·투명성 원칙을 최우선 기준으로 삼아야 한다"고 분석했다. 그러면서 "기업은 솔루션이 고영향 AI나 일정 규모 이상의 AI 시스템에 해당하는지 여부를 우선 봐야 한다"며 "이에 해당할 경우 위험관리 체계와 이용자 보호 조치가 법 기준에 부합하는지까지 점검해야 한다"고 설명했다. 오 변호사는 특히 공공기관을 고객으로 둔 기업은 영향평가 준비 여부를 반드시 신경써야 한다고 당부했다. 그는 "시행령과 가이드라인에서 제시하는 방식에 맞게 고지·표시가 이뤄지고 있는지도 점검해야 한다"며 "향후 사업 운영 과정에서 발생할 수 있는 법적 리스크를 선제적으로 관리할 수 있는 방법"이라고 강조했다. 강정희 변호사 역시 AI기본법을 일회성 요건 충족이 아닌 주기적 점검과 개선을 전제로 한 시스템으로 봐야 한다고 주장했다. 강 변호사는 "국내 산업계는 고영향 AI 판단 체크리스트와 내부 가이드라인을 통해 투명성 의무 적용 여부와 예외 해당 여부를 우선 점검해야 한다"며 "의무 대상에 해당할 경우 이를 이행할 수 있는 내부 시스템을 갖추는 것이 필요하다"고 짚었다. 강 변호사는 에너지·보건의료·채용·대출 심사 등 고영향 AI 적용 가능성이 높은 분야 기업은 자체 AI가 생명·안전·권리에 영향을 미치는지 여부를 판단할 수 있는 내부 분류 체계를 마련해야 한다고 권장했다. 강 변호사는 "시스템이 고영향 AI로 분류될 경우 위험 식별·관리 체계, 이용자 보호 방안, 문서 작성과 보관을 포함한 운영·관리·감독 체계를 선제적으로 정비해야 한다"고 말했다.

2026.01.19 16:53김미정 기자

[기고] 눈 앞에 다가온 AI기본법, G3 향한 이정표가 되기를

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 기본법이 2026년 1월 22일 시행을 앞두고 있다. AI 산업 육성과 안전성 확보라는 두 마리 토끼를 잡겠다는 목표를 가지고 21대 국회에서부터 시작된 논의가 22대 국회에서 그 성과를 거둔 이후, 이제 그 시행을 앞두고 있다. 글로벌 AI 패권 경쟁이 국가 대항전 양상으로 치닫는 현시점에서 이번 법 시행이 단순히 대한민국이 AI 사용량에서 1위를 달리는 국가가 아니라 AI 산업을 주도하는 국가로 나아가기 위한 하나의 이정표가 되기를 간절히 바란다. 이번 AI 기본법 시행의 가장 큰 의미는 AI 산업 육성을 위한 법적 근거가 만들어졌다는 점과 AI 산업 규제에 대한 예측가능성이 부여됐다는 점이다. 법적인 관점에서 보면, 산업지원의 경우에는 예산만 확보됐다면 그 근거 법률이 필요하지 않다고 볼 수 있지만, 산업 육성책을 체계적으로 가져갈 수 있는 밑그림인 법률이 있다는 것은 큰 의미를 갖는다. 이런 점에서 AI기본법은 AI 산업 진흥에 있어서 큰 획을 그은 것으로 볼 수 있다. AI 산업이 본 궤도를 타지 않은 시점에 AI 산업에 대한 규제는 시기상조라는 논리도 있다. 주위를 둘러보면 너도나도 AI 서비스를 이용하고 있는 지금 시점에 규제의 틀거리를 마련해 시행하는 건 필연이라고 생각된다. 이제 명확한 법적 근거가 마련됨에 따라 기업들은 고영향 AI 등에 관해 필요한 조치를 취하고, 법적 안정성에 근거해 오히려 과감한 투자를 단행할 수 있는 토대가 마련됐다고 보는 게 보다 합리적이다. 이번 AI 기본법 시행을 계기로 개별 기업들에게 예측가능성이라는 토대가 마련됐다는 것 이외에 기업 입장에서 AI 기본법에 따른 컴플라이언스 체계를 구축하여, 우리가 제공하는 AI는 신뢰할 수 있는 기술이라는 슬로건을 가져갈 수 있는 기회가 될 것으로 보인다. 기술 경쟁력을 넘어서 윤리적인, 신뢰할 수 있는 AI 서비스를 찾는 이용자 관점을 반영해 AI 산업 주도권을 갖기 위한 노력이 필요하다. 법 시행은 완성이 아닌 '균형'을 잡기 위한 긴 여정의 시작이 될 것이다. 규제 무게가 AI 산업의 혁신 또는 성장을 억누르면 안 된다는 것은 너무나 당연한 말이다. 누군가 AI 기술의 10년 후를 물었더니, AI 전문가가 1년 뒤도 예측하기 어려운데 10년 뒤를 예측하는 건 불가능하다고 답했다고 하는 것처럼, 현재 AI 기술은 하루가 다르게 발전하고 있다. 따라서 현재의 AI 기본법 규제 체계가 완성됐다는 것보다는 발전하는 AI 현실을 받아들여 AI 산업계와 영향받는 자인 국민의 목소리를 반영한 유연한 사고가 필요한 게 현실이다. 결국 AI 기본법 시행이라는 큰 산을 넘었지만, 이후 AI 기본법이 얼마나 잘 작동해 AI 산업을 진흥시키고, 예측가능성에 따라 신뢰할 수 있는 AI 서비스를 제공할 수 있는지 여부는 정부와 현장 간 호흡에 달렸다. 정부는 법 시행 초기 발생할 수 있는 현장의 혼선을 최소화하기 위해 과학기술정보통신부 중심으로 명확한 가이드라인을 지속적으로 제공해야 하고, 이미 추진하기로 한 과태료 시행 유보 등 과감한 제도 안착을 위해 노력해야 할 것이다. 2026년은 대한민국 AI 산업의 '대항해 시대'가 열리는 원년이다. 그 과정에 AI기본법이 본래 달성하려고 한 목표를 이루고 AI 산업 진흥에 이정표가 되길 바란다.

2026.01.19 05:00윤주호 컬럼니스트

[기고] 금융 AI 가이드라인 개정이 보여주는 새 규제 방향

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)은 이미 금융산업 보조 기술을 넘어 핵심 인프라로 자리 잡고 있다. 신용평가를 비롯한 이상거래 탐지, 사기 적발, 자금세탁 방지 등 본질적 금융 기능 상당 부분이 AI 기반으로 재편되고 있다. 최근 금융위원회가 "AI는 금융의 본질적 역할에 기여할 수 있다"고 강조한 배경 역시 여기에 있다. 그동안 AI 규제 논의는 주로 위험 통제에 초점이 맞춰져 왔다. 그러다 보니 현장에서는 명성, 차별 방지, 위험평가를 통한 안전성 확보와 같은 사항들이 실제 운영 단계에서 어떻게 구현돼야 하는지에 대한 혼란이 있었다. 금융권에서는 기존 규제와 더불어 그 부담감이 상당했던 것도 사실이다. 이번 가이드라인(안)은 거버넌스, 데이터 관리, 모델 검증, 보안, 책임 구조 등 AI 전 주기를 포괄하는 원칙 중심 기준을 제시하고 있다. 이는 금융권의 AI 활용을 제한하기보다는 신뢰 가능한 방식으로 운영하기 위한 기준을 보다 명확히 했다는 점에서 위와 같은 간극을 메우려는 시도로 해석된다. 이런 접근은 기업 실무 관점에서도 의미가 크다. 금융회사가 AI를 도입할 때 가장 어려움을 겪는 부분은 기술 자체 적정성 판단이 아니라, 사후 책임과 내부 통제에 대한 불확실성이다. 이번 가이드라인은 AI 도입 여부 또는 활용 방법을 판단하는 기준을 넘어 그 도입 이후 내부 의사결정, 소비자 보호 장치 등 관리·안정적 운영을 위해 기업이 준비해야 할 구체적인 관리 포인트를 비교적 명확히 제시하고 있다. 규제당국의 전향적 접근이 기업 한계를 제한하지 않고 오히려 예측 가능성을 높여 그 발전을 돕고 있는 것이다. 이같은 접근은 한 달 내 시행을 앞둔 AI 기본법과의 관계에서도 시사하는 바가 크다. AI 기본법은 전 산업에 적용되는 반면, 금융 AI 가이드라인은 금융이라는 특정 산업 리스크 구조를 반영한 산업별 운영 기준에 가깝다. 이는 향후 AI 규제가 단일한 법률로 모든 문제를 해결하기보다는 기본법과 산업별 가이드라인이 상호 보완적으로 작동하는 방향으로 정착될 가능성을 보여준다. 금융위원회가 '총력전'을 강조했듯 AI 경쟁력은 알고리즘 성능이나 데이터 규모만으로 결정되지 않는다. AI가 실제 금융 서비스에 적용되는 과정에서 발생할 수 있는 오류, 편향, 책임 문제를 어떻게 관리할 것인지에 대한 제도적 신뢰가 뒷받침되지 않는다면 빠른 도입은 오히려 리스크로 작용할 수 있다. 금융 분야에서 AI의 판단은 곧바로 소비자 보호와 금융시장 안정성으로 이어진다는 점에서 금융산업 특성은 충분히 고려될 필요가 있다. 이번 개정이 초점을 맞춘 운영 중심의 규율은 이러한 문제의식을 구체화한 결과로 볼 수 있다. 물론 원칙 중심의 가이드라인이 실효성을 갖기 위해서는 해석과 적용의 일관성이 중요하다. AI 활용을 위한 탄탄한 거버넌스와 전문인력이 뒷받침되었음은 기본값으로 둔다 하더라도 금융회사마다 AI 활용 수준과 조직 구조가 다른 만큼, 동일한 원칙이 현장에서 다양한 방식으로 구현될 가능성이 높다. 이 과정에서 감독 당국과 업계 간의 지속적인 소통과 사례 축적이 필요하다. 가이드라인이 경직된 규제가 아니라 살아 있는 기준으로 기능하기 위해서는 축적 과정이 필수다. 금융 AI 가이드라인 개정은 한국의 AI 규제 논의가 새 단계로 접어들었음을 시사한다. 이제 중요한 것은 AI를 얼마나 제한할 것인가의 문제가 아니라 AI를 산업 본질에 부합하도록 어떻게 계획하고 운영할 것인가다. 금융 분야에서 시작된 이런 접근은 향후 다른 산업으로도 확산될 가능성이 크다. 이제 기업에게 필요한 것은 규제를 피하는 전략이 아니라 규제를 운영의 언어로 이해하고 선제적으로 설계하는 전략일 것이다.

2026.01.05 07:00이수화 컬럼니스트

[기고] EU 디지털 간소화 방안과 한국 AI 기본법 과제

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 한국은 세계적으로 인공지능(AI) 기술 수용과 활용이 가장 활발한 국가 중 하나다. 오픈AI는 한국의 챗GPT 유료 구독자 수가 미국에 이어 세계 2위를 차지한다고 발표한 바 있다. 그러나 이런 기술 도입 속도에 비해 AI 규제와 제도적 틀 마련은 상대적으로 늦게 시작됐다. 한국은 AI 관련 제도 정비 과정에서 유럽의 강력한 AI 법안(EU AI Act)과 미국의 규제 동향을 면밀히 관찰하며 영향 받았다. 한국의 AI 관련 법령은 개인정보, AI, 플랫폼 규제 등에서 EU 모델을 상당 부분 참조하면서도, 산업 진흥 필요성과의 균형을 추구하는 모델로 평가받고 있다. 올해 1월 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'이 제정돼 내년 1월 시행을 앞뒀다. 현재 시행령과 고시, 가이드라인 등 하위법령 마련 작업이 진행 중이다. 과학기술정보통신부는 지난 9월 8일 하위법령 제정방향을 공개하고 대국민 의견을 수렴한 후, 지난달 12일 시행령 제정안을 입법예고하면서 규제보다는 진흥에 무게를 두고 최소한의 규제체계를 도입하는 데 집중했다고 밝혔다. 국내 하위법령 정비가 이뤄지는 가운데, 지난달 19일 EU 집행위원회가 '디지털 간소화 방안(Digital Package)'을 공식 발표했다. 이 방안은 최근 몇 년간 EU AI 법안, 데이터법, 디지털서비스법(DSA), 디지털시장법(DMA) 등 여러 규제를 연속적으로 도입하면서 발생한 복잡성과 중복규제 문제를 해결하고자 디지털 규제환경을 포괄적으로 개편하는 것이다. 기업의 부담과 법적 불확실성을 줄이고 시장 혁신과 경쟁력을 강화하는 것을 목표로 한다. 주요 내용은 데이터, 사이버보안, AI 규제를 단순화하는 '디지털 옴니버스 규정(Digital Omnibus Regulation)'을 포함한다. 특히 AI 규제 간소화 측면에서 주목할 만한 변화가 있다. EU AI 법안의 원활한 시행을 위해 고위험 AI 규제 적용 시점을 최대 16개월 연기하는 조치가 포함됐다. 예컨대 고용·법 집행 등 민감 분야의 고위험 AI 규정 시행은 2026년 8월에서 2027년 12월로 연기된다. 기술문서 작성 의무 완화 등 기존 중소기업에만 적용되던 완화 조치는 종업원 750명 미만의 중견기업(SMC)까지 확대 적용된다. 기업 내부에서 제한적 용도로 사용하는 AI에 대해서는 EU 데이터베이스 등록 의무를 면제했다. 데이터 측면에서 GDPR 개정을 통해 AI 개발·운영을 위한 개인정보 처리가 '정당한 이익'에 해당한다는 근거를 명시함으로써 AI 모델 학습·운용에 개인정보를 활용할 수 있는 범위를 확대했다. EU의 디지털 간소화 방안은 아직 최종 통과나 확정까지 회원국 간 논의와 유럽의회 승인 절차가 남아있으며, 디지털 기본권 후퇴 가능성이나 빅테크 편향성에 대한 비판도 제기되고 있다. 그럼에도 EU의 규제 정비 방향성은 국내 AI 정책과 하위법령 정비에도 일정한 영향을 미칠 것으로 예상된다. 새 정부가 AI전환(AX)을 통해 AI 3대 강국으로 도약하겠다는 강력한 의지를 밝혔고, 하위법령 정비 방향도 규제보다는 진흥에 무게중심을 둔 상황에서, EU 역시 규제를 간소화하고 산업 진흥과 기본권 보호의 조화를 도모하는 방향으로 무게추를 옮긴 만큼 이런 방향성이 더욱 탄력을 받을 것으로 전망된다. EU AI 법안이 고위험 AI 규정의 적용 시점을 차등 연기한 것은 국내 규제 적용의 범위와 속도를 조절하는 데 참고할 수 있을 것으로 보인다. 또한 규제의 통합절차 간소화 등 '규제효율'을 도모하는 설계원리를 반영한 디지털 인프라 구축 논의가 가속할 것으로 예상된다. 그럼에도 규제 강도와 기본권 보호에 대한 강조 측면에서 EU AI 법안은 여전히 높은 수준의 요구사항을 유지하고 있다. 국제규범과의 호환성을 확보하되 국내 산업 여건과 균형을 이룰 수 있는 정교한 접근이 필요한 시점이다.

2025.12.16 10:30노은영 컬럼니스트

호프만에이전시코리아, '올해의 에이전시 어워드' 4개 부문 수상

호프만에이전시코리아가 아시아·태평양 시장에서 PR 경쟁력을 인정받았다. 호프만에이전시코리아는 캠페인아시아퍼시픽의 '2025 올해의 에이전시 어워드(AOY)'에서 한일 지역 4개 부문을 수상했다고 28일 밝혔다. 이는 한국 PR 기업 중 최다 수상 기록이다. 이번 어워드는 글로벌 광고와 PR 기업들이 경쟁한 가운데 이뤄졌다. 권기정 호프만에이전시코리아 대표는 '한일 에이전시 리더'와 '성장 리더' 부문에서 대상을 받았다. 두 부문 동시 수상은 한국 PR 업계 첫 사례다. 심사 기준은 리더십과 성장 전략, 산업 전문성 등 경영 전반이다. 호프만에이전시코리아는 에이전시 부문에서 '한일 전문 에이전시 은상'과 '한국 PR 에이전시 동상'을 수상했다. 한일 시장에서 전략적 홍보 운영력과 실행력이 뛰어나다는 평가를 받았다. 또 스페셜리스트 에이전시 부문인 AI와 반도체, 클라우드, 데이터센터 등 고난도 테크 산업에서도 역량을 인정받았다. 한국 PR 에이전시 부문에서는 3년 연속 수상으로 한국 내 종합 PR 경쟁력을 안정적으로 유지한 것으로 평가됐다. 캠페인아시아퍼시픽의 AOY는 아태 지역을 대표하는 PR 광고 마케팅 어워드다. 올해 한일 지역 숏리스트에는 '이노션'과 '티비더블유에이' '맥칸' '웨버샌드윅' 등 다수 글로벌 기업이 올랐다. 호프만에이전시코리아는 AI와 빅데이터, 클라우드, 반도체, 플랫폼 등 첨단 산업 중심으로 언론홍보와 디지털 운영, 콘텐츠 제작, 위기관리 등 통합 커뮤니케이션 서비스를 제공하고 있다. 그동안 오픈AI를 비롯한 깃허브, 줌, 딥엘, SK그룹, 삼성디스플레이, LG에너지솔루션 등 국내외 주요 기업 홍보를 수행해 왔다. 권기정 호프만에이전시코리아 대표는 "한국 PR 산업이 글로벌 무대에서 강력한 존재감을 갖도록 노력할 것"이라고 밝혔다.

2025.11.28 13:42김미정 기자

KT-디지털브릿지, AI 데이터센터 사업 힘 모은다

KT가 글로벌 디지털 인프라 투자 기업 디지털브릿지와 AI 서비스 수요 증가에 대응하기 위해 AI 데이터센터 사업 관련 업무 협약을 체결했다고 26일 밝혔다. 양 사는 이번 협력을 통해 '국내 AI 데이터센터 인프라 구축'을 목표로 두고 급증할 것으로 예상되는 아시아·태평양(아태) 지역 AI 데이터센터 수요에 사전 대비할 계획이다. 디지털브릿지는 미국에 본사를 둔 디지털 인프라 투자 전문 기업이다. 약 1천80억 달러 규모의 자산을 운용하고 있으며, 북미와 유럽 등의 글로벌 통신사와 네트워크 및 IT 인프라 분야에서 협력해 왔다. 최근에는 초대형 데이터센터 설계 기업에 투자하고 글로벌 데이터센터 운영사를 인수하는 등 AI·클라우드 인프라 분야로 사업을 확대하고 있다. KT와 디지털브릿지는 이번 협약으로 ▲국내 AI 데이터센터 사업 공동 개발 ▲해외 데이터센터 사업 협력 ▲데이터센터 ESG 기술 공유 등을 추진한다. 양 사는 국내 AI 데이터센터의 설계부터 운영까지 전 과정에서 협력한다. 기존 양 사의 데이터센터 간 연결성과 안정성을 강화하는 방안도 함께 논의할 계획이다. 해외에서는 AI 데이터센터 사업 기회 발굴을 위한 시장 조사를 공동으로 수행하며, 디지털브릿지가 추진하는 글로벌 AI 데이터센터 프로젝트에 KT가 참여하는 기회도 모색한다. 데이터센터 ESG 분야에서도 긴밀히 협력한다. 디지털브릿지는 데이터센터 ESG 관련 기술 및 운영 경험을 KT에 공유한다. KT는 이를 통해 지속 가능한 AI 데이터센터 운영과 역량 향상 방안을 함께 검토할 계획이다. 안태은 디지털브릿지 아태 부문 대표는 “AI 시대를 맞아 AI 데이터센터는 국가와 기업 경쟁력의 핵심 인프라가 되고 있다”며 “이번 협력은 양 사가 보유한 데이터센터 사업 경험과 역량을 바탕으로 아태 지역에 있는 글로벌 테크 기업의 AI 수요에 선제적으로 대응하는 첫 걸음이 될 것”이라고 말했다. 정우진 KT 전략·사업컨설팅부문장은 “KT는 디지털브릿지와 함께 국내 AI 데이터센터를 비롯해 글로벌 AI 데이터센터 사업 기회를 적극 발굴할 것”이라며 “향후 다양한 고객의 요구를 충족할 수 있는 최적의 서비스를 제공하겠다”고 밝혔다.

2025.11.26 15:00진성우 기자

[기고] 인공지능 특이점으로 가는 출발점

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] '특이점(singularity)'은 수학이나 물리학에서 사용되던 용어다. 수학적으로 정의될 수 없는 점이나 블랙홀 중심에 있어 밀도가 무한대로 시공간이 붕괴되는 점과 같이 우리가 이해하고 있는 물리 법칙이 적용되지 않는 점을 말한다. 이처럼 알려져 있는 물리 법칙으로 설명할 수 없는 예측 불가능한 변화가 발생하는 지점을 설명하는 개념이다. 요즘은 인공지능(AI)의 '기술적 특이점'이란 말이 많이 사용된다. 컴퓨팅 파워 등 기술이 기하급수적인 속도로 발전하면서 현재 인간이 상상하기 어려운 변화가 온다는 것이다. AI 연구자이자 미래학자인 레이 커즈와일이 AI에 특이점이라는 개념을 적용하면서 대중들에게도 널리 알려졌다. 레이 커즈와일은 인류가 수천 년 동안 특이점을 향해 대장정을 펼쳐 왔는데, 이제 전력 질주 구간에 이르렀다고 한다. 순식간에 모두 스마트폰을 들고 다니게 된 것처럼 AI 기술도 일상 생활 깊숙이 들어올 것이고 우리의 사고도 크게 확장될 것이라는 주장이다. 레이 커즈와일이 말한 것처럼 AI 기술은 어지러울 정도로 빠르게 발전하고 있다. 구글, 오픈AI, 마이크로소프트 등의 연구진이 참여해 2023년 7월경 발표한 AI 규제 관련 보고서 '프런티어 AI 규제: 공공 안전을 위협하는 신흥 위험 관리(Frontier AI Regulation: Managing Emerging Risks to Public Safety)'에서는 1천26 플롭(FLOP)을 사용해 학습된 모든 기초 모델이 충분히 위험한 능력을 보일 잠재력을 가지고 있다고 간주하는 것을 제안했다. 이는 2023년 10월 당시 바이든 대통령이 1천26 FLOP을 일종의 규제 기준으로 하는데 영향을 미쳤다. 다만 트럼프 대통령은 취임 직후 바이든 행정부의 이 행정명령이 AI 혁신을 저해하는 과잉 규제라며 페지했다. 2년이 지난 현 시점까지는 1천26 FLOP을 만족하는 AI 모델이 공식적으로 공개 되지는 않은 것으로 보이나, 머지않아 이를 충족하는 AI 모델이 나올 것으로 예상된다. 기술이 빠르게 발전하며 일상의 풍경을 바꿔놓으면 일상을 규율하는 제도, 규범 역시 변화가 필요하다. AI 기술에 대한 법과 제도도 한창 정비 중이다. 유럽연합(EU)은 세계 최초로 AI 법 제정해 2024년 8월부터 단계적으로 시행하고 있다. 다만 건강, 안전, 기본권과 관련된 공익의 일관되고 높은 수준의 보호를 보장하기 위한 '고위험 AI(High Risk AI system)'에 대한 규제가 2026년 8월 시행 예정이었는데, 최근 그 시행 시기를 2027년 12월로 16개월 연기한다고 발표했다. 미국은 연방 차원에서 AI 전반을 다루는 법이 나오지는 않았지만 캘리포니아 등 여러 주에서 '투명성 의무' 등에 대한 다양한 법안이 제정되고 있다. 일본은 올해 6월 AI의 연구개발, 이용을 촉진하기 위한 진흥법을 마련헸다. 우리나라도 2025년 1월 AI 기본법이 제정돼 2026년 1월부터 시행될 예정이다. 한국의 AI 기본법은 AI 산업 발전을 위해 정부가 다양한 지원을 하는 방안과 함께 AI를 안전하고 신뢰성 있는 기반 하에 이용할 수 있도록 하는 방안을 담고 있다. 법 시행을 앞두고 시행령이 입법예고 됐고, 투명성 확보 의무, 고영향 AI 사업자 책무 등에 관련된 고시와 가이드라인도 나왔다. 생성형 AI 또는 고영향 AI를 이용한 제품 또는 서비스를 제공하는 AI사업자는 그 제품 또는 서비스가 해당 AI에 기반해 운용된다는 사실을 이용자에게 사전에 고지해야 하는 등 투명성을 확보할 의무를 진다. 또 생성형 AI 또는 이를 이용한 제품이나 서비스를 제공하는 경우 그 결과물이 생성형 AI에 의해 생성됐다는 사실을 표시해야 한다. 이 때 사람이 직접 인식할 수 없더라도 소프트웨어를 통해 확인할 수 있는 방식의 비가시적 표시도 가능하다. 다만 이 경우에는 생성형 AI에 의해 생성됐다는 사실을 1회 이상 안내 문구, 음성 등으로 제공해야 한다. AI 기본법 시행령을 입법예고하며 발표된 보도자료에는 규제보다 진흥에 무게를 두면서 필요 최소한의 유연한 규제 체계를 도입하는 것이라고 강조돼 있다. 그러나 여러 가이드라인들이 제시됐음에도 여전히 모호하고 불명확 부분이 많다는 현장 사업자들의 목소리도 있다. 특이점으로 가는 고속도로가 열릴지, 지난한 여정의 서막이 오른 것일지, 출발점에 서있다.

2025.11.26 10:41법무법인(유) 태평양 유재규 변호사 컬럼니스트

[기고] AI 고속도로, 기술보다 제도가 속도를 결정한다

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] "인공지능(AI)이 바꾸지 않는 산업은 없다." 요즘 부쩍 실감하는 말이다. 실제 글로벌 기술 기업의 최고경영자(CEO)들이 한국을 찾는 이유도 여기에 있다. 최근 아시아 태평양 경제협력체(APEC) 회의 기간 중 방한한 엔비디아 젠슨 황 CEO는 국내 대기업 총수들과 잇따라 만남을 가졌다. 이른바 '깐부 미팅'이라 불린 그 만남에서 그는 "한국은 세계에서 가장 빠른 AI 국가가 될 수 있다"고 강조하며 그래픽처리장치(GPU) 공급과 협력 확대를 약속했다. 이에 따라 새정부의 AI 국정과제인 'AI 3대 강국 도약'과 'AI 고속도로 구축' 전략이 국제무대에서 다시 한 번 부각되는 계기가 됐다. AI 고속도로란, 단순히 GPU와 데이터센터를 더 짓겠다는 계획에서 그치는 것이 아니다. 산업화 시대의 고속도로가 물류를, 정보화 시대의 초고속망이 데이터를 움직였다면, 이제 AI 고속도로는 지식과 연산이 흐르는 인프라를 뜻한다. 반도체, 클라우드, 데이터, 네트워크가 모두 맞물려야만 가능한 구조다. AI 경쟁력은 누가 더 빠른 칩을 갖고 있느냐가 아니라, 이 모든 자원을 얼마나 효율적으로 연결해 대규모 연산을 구현하느냐, 즉 '스케일'을 확보하느냐에 달렸다. 젠슨 황 말처럼 "AI의 시대는 컴퓨팅의 시대"지만, 그 거대한 컴퓨팅 인프라가 실제로 돌아가게 만드는 힘은 기술만이 아니다. 투자와 전력, 인프라, 제도와 정책이 함께 맞물릴 때 비로소 AI 산업의 속도가 결정된다. AI 산업의 성패는 결국 스케일에 달려 있다. GPU와 메모리, 전력 인프라, 냉각시설, 데이터센터를 얼마나 빠르고 안정적으로 확보하느냐가 관건이다. 하지만 현실은 단순한 투자 경쟁을 넘어선다. AI 연산 수요가 폭증하면서 국내 전력망이 이를 얼마나 감당할 수 있을지가 새로운 변수가 됐다. 일부 지역에서는 데이터센터 신·증설이 송전 설비 부족으로 지연되고, 대규모 전력공급 승인 자체가 늦어지는 사례도 나타난다. 결국 기업은 기술력만이 아니라, 정책 환경과 인허가 절차, 에너지 공급 등 외부 여건의 제약을 미리 파악하고 대응할 수 있는 감각과 실무적 판단력을 갖춰야 한다. AI 고속도로의 또 하나의 축은 데이터다. AI는 결국 데이터를 먹고 자란다. 하지만 데이터가 많다고 해서 곧바로 경쟁력이 되는 것은 아니다. 데이터를 얼마나 빠르고 안전하게 모으고, 어떻게 결합해 학습할 수 있느냐가 관건이다. 데이터 이동과 보안, 프라이버시, 국경 간 데이터 이전 제한 등은 기술문제이면서 동시에 제도문제다. 특히 파운데이션 모델을 학습할 때는 웹데이터나 외부 콘텐츠 속에 포함된 저작권·개인정보 이슈를 세심히 검토해야 한다. 데이터 출처의 합법성과 이용 목적의 정당성을 확보하지 않으면, 아무리 뛰어난 모델이라도 상용화 단계에서 법적 리스크로 발목이 잡힐 수 있다. 따라서 기업은 법무·기술·보안 부서가 함께 '데이터 플로우 맵'을 설계하고, 학습 데이터의 수집부터 활용까지 전 과정의 컴플라이언스를 관리해야 한다. 이처럼 기술의 속도가 빠른 만큼, 제도의 유연성도 필요하다. AI 산업은 하루가 다르게 진화하지만, 규제는 아직 과거형에 머물러 있는 경우가 많다. 기업이 새로운 서비스를 시도할 때마다 "이게 합법인가, 위법인가"를 확인하느라 속도가 늦어진다면, 혁신의 기회는 결국 이 나라에 남아있지 않을 것이다. 정부가 추진 중인 AI 샌드박스, 실증특례, 테스트베드 제도는 이러한 현실을 보완하기 위한 시도다. 일정 기간 규제를 유예하거나, 실제 환경에서 신기술을 검증할 수 있도록 지원함으로써 '실험과 실패가 가능한 제도적 공간'을 마련했다는 점에 의의가 있다. 하지만 제도 유연성만으로는 충분하지 않다. 보다 근본적인 법과 제도의 과제를 짚어야 한다. 첫째, AI가 내린 판단이 사회적으로 영향을 미칠수록 기업은 "왜 이런 결과가 나왔는가", "오류가 발생하면 누가 책임지는가"를 설명할 수 있어야 한다. 법은 기업에게 투명성과 설명책임을 요구하되, 반대로 기업이 충분한 안전조치와 검증 절차를 갖췄다면 사고 발생 시 책임을 감경받을 수 있는 체계도 함께 마련해야 한다. 규제는 처벌의 수단이 아니라 예측가능성을 보장하는 안전장치가 되어야 한다. 둘째, 규제의 층위와 차등화가 필요하다. 의료·금융·채용 등 사회적 파급력이 큰 고영향 AI 분야는 엄격히 관리하되, 연구개발이나 제조공정처럼 위험이 낮은 영역은 절차를 간소화하고 규제를 완화할 필요가 있다. 모든 AI를 동일한 기준으로 관리하려 한다면 속도도, 신뢰도 모두 잃게 된다. 결국 우리나라가 AI 3대 강국으로 나아가기 위해 필요한 것은 기술력과 함께 뒷받침되는 제도적 신뢰다. 기업이 마음껏 도전할 수 있는 예측 가능한 규제환경, 그리고 국민이 안심할 수 있는 투명한 책임체계가 균형을 이루어야 한다. 젠슨 황이 말한 "가장 빠른 AI 국가"는 GPU 속도가 빠른 나라가 아니라, 혁신의 속도와 제도의 속도가 함께 달리는 나라일 것이다. 한국이 지금 그 고속도로 위에서 방향을 제대로 잡는다면, 우리는 기술뿐 아니라 신뢰의 품격에서도 세계의 모범이 될 수 있을 것이다.

2025.11.10 11:05강정희 컬럼니스트

[기고] 알고리즘과 개인정보 처리

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 오늘날 '알고리즘(Algorithm)'이라는 용어는 인공지능(AI)과 함께 매우 빈번하게 사용된다. 이 용어는 새롭게 만들어진 말이 아니라 9세기 페르시아 수학자 '알-콰리즈미(Al-Khwarizmi)'의 라틴어식 이름인 알고리스무스(Algorismus)에서 유래한 것으로, 본래 '문제를 해결하는 절차와 방법'을 의미했다. 이처럼 오래된 개념이 오늘날 AI 영역에서 뜨거운 법적 쟁점이 되고 있다. 전통적인 알고리즘은 사람이 모든 규칙을 직접 만들고 입력했지만 현대의 AI 알고리즘은 스스로 학습을 통해 규칙을 만들어 내기 때문이다. 그런데 이 학습의 재료는 방대한 양의 데이터다. 이 데이터에는 개인의 신상, 취향, 생체 정보와 같은 개인정보도 포함된다. 개인정보를 학습해 고도화된 예측 모델인 AI 알고리즘이 그 자체로 개인정보를 처리한 결과물로 봐야 하는지는 어렵지만 답해야 하는 문제다. AI 모델 자체는 개인정보 처리에 해당하지 않는다는 측은 학습의 '과정'과 '결과물'을 구분한다. AI를 트레이닝하는 단계에서는 개인정보의 수집과 분석이 이뤄지므로 개인정보 처리에 해당하지만 학습이 끝나 하나의 모델이 완성되면 그 모델, 즉 알고리즘은 원본 개인정보와 분리된 수학적·통계적 규칙의 집합에 불과하다. 이에 따라 모델을 활용하는 행위는 개인정보 처리가 아니라는 논리다. 반대로 학습이 완료된 AI 모델도 개인정보 처리의 연장선에 있거나 그 자체로 개인정보의 성격을 가진다고 보는 입장도 있다. 이 견해에 따르면 AI 모델은 단순히 원본 데이터를 요약한 것이 아니라 그 안에 데이터의 본질적 패턴과 특성을 내재하고 있다. 이에 따라 AI가 특정 개인을 식별하거나 민감한 정보를 추론할 수 있다면 이는 심각한 문제이므로 별도의 보호가 필요하다는 주장으로 이어진다. 미국의 경쟁당국인 연방거래위원회(FTC)는 과거 안면인식 AI기업인 파라비전 사가 사용자 동의 없이 수집한 개인정보로 AI 모델을 개발한 행위에 대해 원본 데이터를 파기할 뿐만 아니라 그 데이터로 학습한 알고리즘까지 삭제(disgorgement)하라는 명령을 내린 바 있다. 이같은 사례는 여러 건이 확인된다. 이러한 규제 당국의 입장은 AI 모델을 불법 수집된 정보의 파생물로 본다는 점에서 의미가 있다. 개인정보를 위법하게 수집했다면 그 데이터를 이용해 개발한 알고리즘으로 이익을 얻는 것 역시 허용되지 않는다는 것이다. 이는 알고리즘이 원재료인 개인정보와 동일한 수준으로 취급될 수 있음을 보여주는 사례다. 국내에서도 AI 개발 과정을 개인정보 처리로 본 사례가 있다. 지난 2022년 법무부가 1억7천만 건의 출입국 심사 정보를 민간 기업에 제공해 AI 식별 시스템을 개발하게 한 사안에서 개인정보보호위원회는 해당 AI 개발을 개인정보 처리를 위탁한 것으로 간주했다. 다만 이 사안에서는 당초 수집 목적 범위 내의 적법한 이용으로 인정됐기에 알고리즘 삭제까지 이어지진 않았다. AI 학습과 그 결과물인 모델을 '개인정보 처리'의 영역으로 볼 경우 그 파급력은 막대하다. 정보주체가 개인정보보호법상 '삭제 요구권'을 행사하며 "내 정보가 학습된 모델을 삭제해달라"고 요구할 수 있게 되기 때문이다. 개인정보로 만들어진 알고리즘을 법적으로 어떻게 바라볼 것인지, 정보주체를 보호하면서도 기업의 기술발전 진흥을 위해서는 어떠한 규제를 만들어 나가야 할지에 대한 사회적, 법적 논의가 필요한 시점이다.

2025.10.24 11:46이강혜 법무법인 태평양 컬럼니스트

[기고] 인공지능 혁신을 위한 골든 타임

전 세계는 인공지능(AI)에 올인 아닌 올인을 하고 있다. 인터넷의 시대, 모바일의 시대 초기에도 이랬나 싶을 정도다. 과거에서 학습한 경험 때문일까. 적어도 미래에는 뒤쳐지지 않기 위해 어느 나라도 가리지 않고 AI에 대한 치열한 관심과 투자에 골몰하고 있다. 그나마 제조업과 기반 기술을 보유한 우리나라는 다른 해외 국가들과 비교해 뭔가 더 할 수 있는 위치에 있다. AI 기술 역시 다른 기술 분야에서처럼 승자 독식의 법칙을 따르고 있다. 아직은 그 미래를 알 수 없지만 당장 뒤쳐지게 된다면 몇 년만 지나더라도 도저히 따라잡을 수 없는 절벽이 생길지도 모른다는, 그리고 그때는 도태될 수 있다는 두려움이 수십조원, 수백조원 단위의 상상하기 어려웠던 규모의 투자를 하게 만들고 국가 전체의 지원을 고민하게 만든다. 우리 정부가 인공지능 3대강국(AI G3)이라는 다소 벅차 보이는, 도달할 수 없더라도 목표는 높이 잡아야 한다는 메타포같은 구호를 제시한 이유도 충분히 수긍할 만한 상황이다. AI가 보다 발전한 미래가 어떠한 모습일지는 아직까지는 아무도 알지 못한다. 세계적인 석학들조차 AI의 시대가 가져올 찬란한 미래만큼이나 통제 불가능한 판도라의 상자를 열어젖하게 될 지도 모른다는 우려를 보여주기도 한다. AI 활용이 당장은 우리에게 생산성을 높이고 삶을 윤택하게 하는 유용한 도구로 인식되기도 하고 다른 한편에서는 과거 러다이트의 시대에서처럼 결국 인간의 일자리를 대체하고 말 것이라는 걱정이 혼재돼 있기도 하다. 혹자는 이러한 상황에 대비해 국가 전체적으로 AI가 가져올 경제적, 사회적 영향과 그에 대한 대비책 마련을 위한 사회적 대합의가 필요하다는 점을 지적하기도 한다. 모든 일에는 타이밍이 있다. 아무리 좋은 발명품이라도 시대를 너무 앞서 나가면 세상에 도움이 되지 못하기도 하고 반대로 충분한 준비를 갖추었다고 생각했을 때는 이미 세상이 저만큼 앞서 나가서 더 이상 필요없게 될 수도 있다. 빛의 속도로 발전하고 있는 AI 기술 역시 마찬가지이다. AI 혁신을 위한 현재의 당면 과제는 대규모 AI 학습을 위한 그래픽처리장치(GPU)의 확보뿐만 아니라 과거에 발붙이고 있는 데이터 규제의 문제를 신속하게 풀어야 한다는 점이다. 데이터에 대한 새로운 정책이 그동안의 레거시 규제가 가져왔던 안정적인 국민의 권리와 자유 보호에 영향을 미칠 수 있다는 지적도 존재한다. 그럼에도 지나고 보면 과거에는 필요하다고 느꼈던 규제가 AI 시대에는 불필요한 것일 수도 있다. 당장은 AI 개발과 발전을 위해서 학습 데이터의 확보가 매우 중요한 의미를 가지지만 수년만 지나더라도 학습 자체가 아니라 그 학습을 통하여 완성된 AI 활용 과정에서 발생하는 부작용이 보다 큰 사회적 이슈가 될 것이다. 몇 년이 지나고 나면 그 때 규제가 AI 개발에 왜 적용돼야 했던가라는 문제제기가 나올 수도 있다. 핵심은 골든 타임을 지나가고 있는 우리가 무엇을 더 할 수 있는가이다. 즉, 현재는 사회적 합의를 위한 설왕설래보다는 보다 속도감 있는 전진이 필요할 시점일 수 있다는 것이다. 입법부나 정책을 담당하는 행정 당국 역시 이같은 사정들을 모두 잘 알고 있다. 모든 규제들은 그 규제들이 도입될 때에는 나름의 합당한 이유가 있었던 것들이다. 다만 시간이 지남에 따라 규제들이 시대에 맞지 않는 단점들을 드러내게 된 것일 뿐이다. '과감'한 도전과 이를 위한 세밀한 전략만이 골든 타임을 놓치지 않는 방법이다.

2025.10.12 12:00강태욱 법무법인 태평양 컬럼니스트

[기고] 인공지능과 사랑의 법적 경계

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)는 '법적으로' 사랑을 할 수 있는가. 영화 '그녀(Her)'에는 AI와 사랑에 빠진 남자가 주인공으로 등장한다. 요즘 현실에서도 챗봇과 정서적 교류를 하며 위안을 얻는 사람들이 늘어나고 있다. 그렇다면 영화 속 이야기가 현실이 되는 날도 머지않은 것일까. AI가 사람과 정서적 교감을 나눌 수 있다는 점은 이제 부정하기 어렵다. 문제는 법적으로 AI와의 사랑을 어떻게 볼 수 있느냐다. 사랑 그 자체를 법으로 정의하기는 어렵지만 사랑에 수반되는 고백, 약속, 결혼 같은 행위는 법적으로 분석할 수 있다. 먼저 결혼을 보자. 민법은 제 807조에 따라 만 18세 이상의 자연인만이 혼인의 당사자가 될 수 있도록 규정한다. 이에 따라 AI는 아무리 그럴듯하게 청혼을 하더라도 법적으로는 결혼이 불가능하다. 사랑을 결혼과 동일시할 수는 없으므로 결혼을 전제하지 않더라도 사랑한다는 고백, 다른 사람을 사귀지 않겠다는 약속, 또는 어떤 선물을 하겠다는 것과 같은 사랑의 약속을 하려면 이에 대한 법적인 책임을 질 수 있어야 유효한 약속이 된다. 현재 한국법에서는 AI는 권리 의무의 주체인 법인격으로 인정되지 않는다. 즉 약속을 위반하더라도 책임을 물을 주체가 될 수 없기 때문에 유효한 사랑의 약속을 할 수 없는 것이다. AI를 개발하고 서비스하는 회사는 대부분 대기업인데 이런 대기업이 AI의 약속에 대해 책임을 진다면 유효한 약속이라는 견해가 있을 수도 있다. 다만 AI를 개발하고 제공하는 회사들이 이런 AI의 발언에 대한 책임을 회피하기 위한 이용약관을 철저히 준비해 두었을 것이라고 본다. 이러한 약관 규정에도 불구하고 AI가 표현한 사랑의 약속과 그 위반으로 인해 상대방에게 정신적 손해가 발생하거나 불이행에 대한 책임을 물을 가능성이 전혀 없는 것은 아니다. 그런데 이는 매우 제한적으로만 인정될 것이며 설령 책임이 인정된다 하더라도 그것은 제품의 기능에 관한 책임일 뿐, 사랑의 약속 자체를 법적으로 유효하게 만드는 책임은 아닐 것이다. 그럼에도 실망하기에는 이르다. 유럽연합(EU)에서 전자인격(Electronic Personhood) 개념을 도입해서 AI에게 제한적이지만 법적 인격을 부여하는 논의가 있었다. 물론 누구나 예상할 수 있는 것처럼 많은 반대로 법제도로 만들어 지지는 않은 상태다. 다만 우리에게 익숙한 회사, 재단과 같은 법인도 사회경제적인 필요에 의해 고안되고 인정된 개념이지 처음부터 누구나 사람과 같은 법인격을 인정했었던 것은 아니다. AI가 발전하고 사회의 경제활동에서 담당하는 비중이 높아진다면 사회적 필요에 의해 이런 전자인격 개념이 도입되고 AI가 주체가 돼 법적인 약속을 할 수 있는 날이 올 수도 있을 것이다. AI로부터의 사랑 고백과 선물을 약속 받는 것이 가능해 질 수도 있는 것이다. 참고로 영화 '그녀'에서 주인공은 헤어진 부인으로 인해 생긴 상처를 AI 여자친구를 통해 치유하나 결국 AI와 결별하고 앞으로 나아간다는 결말을 맞는다. 주인공역의 배우는 영화 내에서 헤어진 부인역을 맡았던 여자배우와 결혼해서 두 자녀를 두고 잘 살고 있다.

2025.09.29 16:47류광현 법무법인 태평양 컬럼니스트

[기고] AI 기본법 하위법령, 규제와 진흥 간 균형의 시험대

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 지난 2022년 말 '챗GPT'의 등장은 인공지능(AI) 기술이 사회 전반에 본격적으로 파고드는 계기가 됐고 불과 몇 년 만에 AI는 산업과 일상 곳곳으로 확산됐다. 각국은 AI의 급속한 발전으로 야기될 수 있는 이용자의 기본권 침해 등을 규제하면서도 동시에 AI 산업에서의 주도권을 놓치지 않기 위해 AI의 발전을 촉진하는 내용의 법제 정비에 나섰다. 미국은 지난 2023년 AI 위험관리 프레임워크를 마련해 민간 자율 규범 중심의 접근을 취했고 유럽연합(EU)은 세계 최초의 포괄적인 AI 규제법인 EU AI 법을 제정해 내년부터 시행을 앞두고 있다. 또 일본은 지난 6월부터 시행된 AI 촉진법을 통해 AI 연구개발, 이용의 촉진을 제도적으로 뒷받침하고 있다. 이러한 흐름 속에서 우리나라도 지난해 12월 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)을 제정했다. AI 기본법은 내년 1월 시행을 앞두고 있다. AI 기본법은 AI의 정의와 분류, 사업자의 의무 등을 규정해 큰 틀을 제시했다. 다만 실제로 AI 기본법이 유효하게 작동하기 위해서는 시행령과 고시, 가이드라인과 같은 하위법령이 핵심적 역할을 하게 된다. 이에 과학기술정보통신부는 총 70여 차례의 산업계·학계·시민단체·관계부처 등의 의견수렴을 거쳐 하위법령 초안을 마련했다. 과학기술정보통신부가 지난 8일 발표한 AI 기본법 하위법령 제정방향에 따르면 하위법령 초안은 AI 연구개발 지원, 학습용 데이터 구축, 중소기업·창업 지원, 전문 인력 양성, 해외 진출 지원 등 다양한 AI 산업 진흥 조치를 담고 있다. 산업 전반에서 AI 도입을 촉진하고 기업이 기술 변화를 선도할 수 있도록 유연한 제도적 기반을 마련하려는 의도가 뚜렷하다. 동시에 구체적인 안전·신뢰 확보 장치도 포함됐다. 더불어 생성형과 고영향 AI에는 사전 고지와 결과물 표시(워터마크) 의무가 부과되고 누적학습량이 일정 수준 이상인 고성능 AI에는 위험 식별과 평가, 완화 조치 등 안전 확보 의무가 부과된다. 또 생명·신체·기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 특정 영역(보건의료, 교통, 에너지, 교육, 원자력 등)에서 활용되는 AI 시스템인 고영향 AI에 대해서는 영역별 판단 기준과 위험관리방안, 이용자보호방안 등을 규정할 예정이다. 신뢰성 확보를 위한 구체적인 조치도 마련된다. 이 외에도 사업자가 자율적으로 실시하는 AI 영향평가가 도입되며 고영향 AI에 대해서는 영향평가 실시 노력 의무가 부과된다. 이같이 정부는 AI 기본법 하위법령 제정방향에서 가능한 한 AI 규제와 진흥 간 균형을 이루기 위해 노력한 것으로 보인다. 다만 스스로 자평하고 있듯이 글로벌 규범 동향과 국내 AI 산업의 발전을 고려해 규제보다는 진흥에 초점을 두고 있는 것으로 생각된다. 일례로 국방 및 국가안보 목적으로만 이용되는 AI는 기본법 적용 대상에서 제외하고 일정 기준을 충족하는 AI에 대해서만 투명성 및 안전성 의무 등이 부과된다. 더불어 AI의 영향평가 등에 대해서는 이를 강제하기 보다는 자율적 실시에 맡기고 있다. 특히 시행 초기에는 과태료 계도기간을 둬 규제를 단계적으로 적용함으로써 기업들의 혼란을 최소화할 수 있도록 설계했다. 규제와 진흥의 균형은 그 자체로 양면성을 지닌다. 규제에 무게를 두면 기업은 새로운 AI 개발에 신중해질 수밖에 없고 이는 혁신의 속도를 늦추게 된다. 특히 자본과 인력이 부족한 신생 기업에게는 규제를 준수해야 한다는 부담 자체가 초기 진입 장벽으로 작용할 위험이 크다. 반대로 진흥에만 치중하면 고도화된 AI로 인해 이용자의 기본권이 침해될 수 있고 국제 규범과의 정합성 측면에서 국내 AI의 안전성 및 신뢰성에 대한 의심이 싹틀 수 있다. 특히 비교적 구체적이고 구속력 있는 규제를 마련한 EU AI 법 등과 비교했을 때 국내의 AI 규제 체계가 과연 글로벌 기준에 부합하는 수준으로 진화할 수 있을지에 대한 의문도 남을 수 있다. 법적 불확실성을 줄이려는 노력 역시 장단을 동시에 가진다. 구체적 기준과 가이드라인이 제시되면 기업은 예측 가능한 환경에서 사업을 추진할 수 있어 불필요한 법적 분쟁을 피할 수 있다. 다만 세부 규정이나 가이드라인이 지나치게 경직되면 신속히 변하는 기술 발전을 따라가지 못한다. 반대로 규정이 지나치게 느슨하면 이용자의 신뢰를 확보하기 어렵다. 법적 불확실성을 줄이는 것이 반드시 규제의 실효성을 담보하는 것은 아니며 효과적인 규제를 마련하기 위해서는 유연성과 안정성 사이의 균형을 이루는 것이 관건이다. 이번에 정부가 제시한 AI 기본법 하위법령 제정방향은 계도기간 운영, 컨설팅·비용 지원, 인센티브 부여 등 사업자의 실질적인 부담을 줄여주는 장치를 많이 두고 있다는 점에서 기업에게는 보다 친화적인 규제라고 볼 수 있다. 다만 국제 규범과의 정합성, 규제 실효성, 이용자 신뢰 확보라는 과제는 여전히 남아 있다. 특히 EU와 같은 강력한 규제 체계를 갖춘 국가들과 교역하는 상황에서 국내 기업이 두 체계 사이의 간극을 어떻게 메울지도 중요한 문제로 떠오를 것이다. 현재로서는 AI라는 새로운 기술에 대한 규제가 실제로 기술 발전과 국민 안전에 어떤 영향을 미칠지, 어느 정도의 실효성을 가질지 예측하기 어렵다. 이에 엄격한 규제보다는 산업 진흥에 보다 무게를 두는 것이 시대적 흐름에 부합하다. 그런 점에서 이번 정부의 하위법령 제정 방향은 바람직하다고 생각된다. AI 기본법 하위법령은 결국 기업과 정부 모두에게 시험대가 될 것이다. 산업계는 내부적으로 AI 기획·개발·운영 단계별 법적 검토 기준을 마련하고 이를 체계적으로 관리할 수 있는 거버넌스를 구축해야 한다. 정부는 AI 기본법 집행 과정에서 산업 진흥과 이용자 보호 사이의 균형이 실제로 구현될 수 있도록 지속적으로 제도를 고도화할 필요가 있다. 내년 AI 기본법 시행 이후 이 법이 단순한 선언에 그치지 않고 실질적인 안전과 신뢰를 담보하면서도 혁신을 뒷받침하는 제도가 될 수 있을지, 그 결과가 곧 한국형 AI 거버넌스의 성패를 가늠하게 될 것이다.

2025.09.12 17:44오세인 법무법인 태평양 컬럼니스트

AI 기업 플리토, 음성 데이터 활용 검토 위해 로펌 3곳 찾아간 이유는?

"지금 인공지능(AI)은 사회 전반에 걸쳐 변화를 촉진하는 핵심 동력으로 자리 잡고 있습니다. 동시에 데이터 활용을 둘러싼 법적 유기적 과제도 점점 더 복잡해지고 있습니다. 앞으로 데이터를 어떻게 안전하게 보호하고 활용하면서도 개인 정보와 기본권을 잘 지킬 수 있을지에 대해 정부와 학계, 산업계가 같이 고민하면서 해결책을 찾아야 우리나라 AI 경쟁력도 성장할 수 있을 것입니다." 조경식 법무법인 태평양 고문은 지난 10일 오후 서울 종로구에서 'AI G3 시대, 안전한 데이터 활용을 위한 패러다임의 전환'을 주제로 진행된 고객 초청 세미나를 통해 이처럼 강조했다. 최근 이재명 정부에서 'AI 3대 강국(AI G3)' 도약을 목표로 AI 정책과 사업을 쏟아내고 있는 동시에 각 기업들이 AX(AI 전환) 도입에 대한 고민을 하고 있지만, 국내 데이터의 정책과 활용법은 정작 명확치 않다는 판단에서다. 데이터는 현대 비즈니스의 핵심 자산으로, 업계에선 이를 효과적으로 활용하는 기업이 시장에서 경쟁 우위를 차지할 수 있다고 본다. 특히 AI 시대를 맞아 데이터가 기술 개발의 필수 요소로 자리 잡으면서 관련 시장도 빠른 속도로 커지고 있다. 11일 과학기술정보통신부와 한국데이터산업진흥원(KDATA)이 발간한 '데이터 산업 현황 조사' 보고서에 따르면, 국내 데이터 산업 시장 규모는 지난 2023년 27조1천513억원에서 매년 12.7%씩 성장해 오는 2028년에는 49조원을 넘어설 것으로 전망됐다. 또 양질의 데이터를 얼마나 잘 확보하느냐에 따라 AI 경쟁력이 갈린다는 점에서 데이터를 제대로 정제해 활용할 수 있는지에 대한 관심도 점차 커지고 있다. 하지만 우리나라에선 AI 학습 과정에서 데이터를 활용하는 데 '저작권'과 '개인정보 규제'가 성장의 걸림돌로 작용하고 있다. 또 산업별로 서로 다른 데이터 규제가 적용되고 있다는 점도 기업들의 혼란을 가중시키고 있다. 특히 개인정보보호법은 여전히 '사전동의'라는 단일 축에 과도하게 의존하고 있다. 그러나 AI 개발 과정에서 데이터의 목적을 사전에 특정하는 것은 거의 불가능할 뿐만 아니라 기술적으로도 활용하기 쉽지 않다는 지적을 받고 있다. 새로운 AI 서비스가 만들어질 때마다 일일이 구체적인 동의를 다시 받아야 한다는 점도 한계점으로 꼽힌다. 이에 몇 차례 개정을 통해 개인정보 처리 근거 규정을 도입했지만 적용 범위와 기준이 불명확하다는 평가를 받고 있다. 또 법원에서도 빠르게 변화는 기술 환경을 이해하지 못하고 개인정보보호법을 엄격하게 해석하는 분위기라는 점에서 기업들이 데이터를 제대로 활용하기 어렵다는 분석이 나오고 있다. 법무법인 태평양 고객 초청 세미나에서 'AI 발전을 위한 데이터 체계의 보완 필요성'을 주제로 발표한 이정수 플리토 대표는 "최근 미국 기업이 우리 회사에 개개인의 음성 데이터를 모아 달라고 말하며 80억원 규모의 거래 제안을 했었다"며 "음성 데이터가 개인 생체 정보여서 민감도가 높아 로펌 3곳에 법적 검토를 받았더니 해석이 다 달랐다"고 말했다. 이어 "로펌도, 우리 같은 데이터 기업들도 요즘 데이터를 활용할 때 어떤 규제가 적용되는지에 대해 명확히 알 수 있는 방법이 없어 고민이 많다"며 "국가 차원에서 정확하게 데이터 활용 가이드라인을 알려줘야 기업들이 혼란 없이 활용할 수 있을 뿐 아니라 AI 산업을 발전시키는 데 도움이 되지 않을까 싶다"고 덧붙였다. 또 이 대표는 국내 데이터 시장이 ▲언어 자원의 부족 ▲대기업·플랫폼 중심의 데이터 편중 ▲법·제도 불확실성 등의 문제로 성장이 더디다고 분석했다. 특히 영어 대비 한국어 데이터 규모가 현저히 적은 데다 구어·전문분야 데이터가 부족하고 방언·다문화 언어 데이터가 거의 없다는 점을 아쉬워 했다. 또 기관 간 데이터 연계 부재, 스타트업·중소기업의 데이터 접근 불가, 저작권 경계 불명확에 따른 학습 데이터 활용 제약, 명확한 가이드라인·샌드박스 제도 부재 등을 하루 빨리 개선해 나가야 한다고 주장했다. 이 대표는 "우리나라의 정서가 담긴 '소버린 AI'를 구축해야 한다는 목소리가 커지고 있는 상황에서 데이터와 관련된 제도들이 하루 빨리 개선되지 않는다면 주권 자체가 상당히 위협 받는 상황이 생길 수 있다"며 "데이터 산업 발전을 저해하는 요소들을 없애기 위해 법적, 제도적으로든 해결책이 조속히 마련될 수 있길 바란다"고 피력했다. 이후 발표에 나선 이수화 법무법인 태평양 변호사는 개인정보 적법처리를 근거로 AI를 어떻게 활용해야 할 지에 대한 가이드를 제시했다. 개인정보보호법 제15조에 따르면 ▲정보주체의 동의 ▲계약의 이행 등을 위해 필요 ▲정보처리자의 정당한 이익 ▲법률 규정 법령상 의무 ▲공공기관의 업무 ▲급박한 생명·신체 이익 ▲공공의 안전과 안녕 등 적법처리 근거를 갖춰야 AI 학습에 개인정보를 활용할 수 있도록 규정돼 있다. 이 변호사는 "AI 시스템 개발을 위한 3요소를 요리에 비유하자면 식재료가 데이터, 알고리즘이 레시피, 컴퓨팅파워는 조리기구라고 볼 수 있다"며 "양질의 충분한 데이터가 없으면 다른 것들이 구현되기 어려운데 국내 정부 정책과 대중적 관심은 부족한 게 현실"이라고 짚었다. 이어 "기존 법체계는 지나치게 경직돼 있어 혁신을 따라가지 못하는 데다 경계가 모호해 실무에서 데이터를 제대로 활용하기 어려울 때가 많다"며 "최근 국회와 정부가 규제 완화 흐름에 나서고 있다는 점은 긍정적"이라고 평가했다. 그러면서 "최근 공개된 AI기본법 시행령 초안에서도 데이터 지원 사업 내용이 상당히 구체화됐다는 점은 AI와 데이터가 상당한 연관 관계가 있다고 인지한 것으로 보인다"며 "이를 토대로 앞으로 데이터를 얼마나 잘 활용할 수 있을지 기대된다"고 덧붙였다. 이 변호사는 최근 발의된 개인정보보호법 개정안들도 규제 완화 흐름의 또 다른 예로 짚었다. 올 초 더불어민주당 민병덕 의원과 국민의힘 고동진 의원이 발의한 이 법안들은 AI의 기술 개발, 성능 개선을 위해 원본 데이터를 학습데이터로 정보주체의 동의없이 활용할 수 있도록 하는 것이 골자다. 이 변호사는 "이 조항들이 시행되면 기업들이 새로운 AI 모델을 개발할 때마다 별도의 동의를 다시 받지 않아도 될 것"이라며 "규제는 완화되지만, 개인정보 침해 우려가 커질 수 있다는 점에서 기업들도 관심을 갖고 이런 부분을 수시로 체크해 봐야 할 것"이라고 조언했다. 이 변호사는 기업들이 AI 서비스를 개발할 때 개인정보 관련 적법성 여부를 판단하기 어려울 때 '사전적정성 검토제'와 '규제 샌드박스'도 적극 활용할 것을 제안했다. 또 AI를 도입할 때 ▲AI 서비스 이용 계약 ▲특별 보호가 필요한 개인정보 처리 ▲임직원·고객향 이용 가이드 마련 등을 체크해볼 것을 권유했다. 그는 "기업들은 사생활을 현저히 침해할 우려가 있는 정보나 주민등록번호 등 고유식별정보, 14세 미만 아동의 개인정보, 휴대전화번호 등을 노출하는 것에 대해 별도 동의나 사전학습단계에서 삭제하는 방안을 충분히 살펴봐야 한다"며 "AI 서비스를 활용할 때도 국외 이전 위험은 없는지, 기업 기밀을 학습용 데이터로 활용하거나 데이터가 귀속되는지 등에 대한 부분을 계약서 작성 시 면밀히 봐야할 것"이라고 강조했다. 그러면서 "자체 검토가 힘들 때는 '개인정보보호·AI팀'을 운영하고 있는 우리처럼 로펌에게 자문을 요청하는 것도 도움이 될 것"이라고 덧붙였다. 이날 세미나에 참석한 최장혁 개인정보보호위원회 부위원장은 "현재 AI 사업과 관련해 저작권과 개인정보보호법이 가장 논의의 중심에 서 있는 듯 하다"며 "올 초 AI기본법이 통과된 후 중국 '딥시크 쇼크'까지 일어나면서 이에 대한 고민이 더 많아진 것 같다"고 강조했다. 이어 "규제 샌드박스 등을 통해 데이터를 활용할 수 있는 문턱을 낮추고자 했음에도 AI 발전을 막는 주범으로 꼽힐 때가 있는 듯 하다"며 "우리나라뿐 아니라 전 세계 각국 감독기관이 AI 시대를 맞아 프라이버시에 대해 함께 방향성을 고민해봐야 할 듯 하다"고 덧붙였다.

2025.09.11 12:22장유미 기자

플렉스, 포브스가 주목한 '아시아 100대 유망 기업' 꼽혀

AI 기반 HR 서비스형 소프트웨 기업 플렉스가 글로벌 경제 전문지 포브스가 발표한 '2025 포브스 아시아 주목해야 할 100대 기업'에 선정됐다고 4일 밝혔다. 포브스는 매년 아시아·태평양 지역의 비상장 기업 중 ▲산업 및 지역 기여도 ▲시장 적합성 ▲유망한 비즈니스 모델 ▲혁신성 ▲지속적인 성장세 ▲투자유치 능력 등을 종합적으로 평가해 100대 유망 기업을 선정한다. 플렉스는 심사 기준을 모두 충족하며 아시아·태평양 지역을 대표하는 차기 유니콘 기업으로 이름을 올렸다. 100대 기업 가운데 HR 분야 기업은 플렉스가 유일하다. HR SaaS를 넘어 HR 업계의 글로벌 리더십 기반을 확보한 셈이다. 명단에 오른 한국 기업은 플렉스를 포함해 총 8곳이다. 포브스는 플렉스가 단순한 HR 솔루션을 넘어, 데이터에 기반한 AI 기술로 기업의 전략적 의사결정을 돕는다는 점을 높이 평가했다. 특히 보도를 통해 "플렉스가 승진 후보자를 제안하고 최적의 보상 구조를 설계할 수 있는 AI 에이전트를 탑재한 HR 소프트웨어를 개발 중"인 점을 조명했다. 데이터 기반의 고도화된 AI 기술력 및 잠재력에 주목했다. 이는 국내 유일의 올인원 HR 플랫폼으로서 채용부터 퇴직까지 구성원 생애주기 전체 데이터를 SSoT(Single Source of Truth) 기반으로 축적해 온 플렉스만의 독보적인 데이터 리더십이 있기에 가능했다. 플렉스는 방대한 데이터에 AI를 접목, 업무 자동화 도구를 넘어 고도화된 인사이트를 제공하고 합리적 의사결정을 돕는 '문제 해결 서비스'로 진화한다고 밝힌 바 있다. 플렉스는 지난 6월 글로벌 벤처캐피털 한리버 파트너스로부터 투자 유치 시 기업가치 5천억원을 평가 받아 차기 유니콘 주자 대열에 오르며 잠재력을 입증받기도 했다. 장해남 플렉스 대표는 "이번 포브스 선정은 단순한 HR 솔루션을 넘어, 데이터 기반 AI 기술로 기업의 성장을 돕는 비즈니스 파트너로서의 비전을 세계적으로 인정받았다는 점에서 의미가 깊다"며 "앞으로 HR이나 재무와 같은 특정 도메인의 벽을 허물고, 조직과 구성원 데이터 기반의 AI SaaS를 개척하며 고객의 비즈니스 성장을 가속하는 파트너가 될 것"이라고 밝혔다.

2025.09.04 10:47백봉삼 기자

[기고] 인공지능 시대에 있어 개인영상정보 활용의 한계

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 이번달 정부에서 향후 5년 간 추진할 국정과제를 발표했다. 경제 분야에서는 바이오 산업과 인공지능(AI) 산업과 같은 신산업 육성을 핵심전략으로 제시했다. 새로운 산업이 육성되면 그에 발맞춰 규제도 개혁이 필요하다. 과학기술정보통신부는 내년 1월 시행 예정인 인공지능기본법(AI기본법)을 구체화하기 위한 하위법령과 안내서 작업 마련에 전념을 다하고 있다. 개인정보보호위원회에서도 AI 학습데이터 활용을 위한 법령안 및 관련 안내서 작업 마련에 몰두하고 있다. 이러한 일환으로 개인정보보호위원회에서는 작년부터 AI 단계별 가이드라인을 마련했다. 그 중 하나가 개인영상정보를 활용할 수 있기 위한 이동형 영상정보처리기기에 관한 안내서다. 드론, 자율주행차와 같은 이동형 영상정보처리기기가 AI 개발에 필수적이라는 것은 주지의 사실이기는 하다. 다만 개인영상정보를 통한 AI 학습과 개발에 있어 한 가지 간과해서는 안 될 사실이 있다. 바로 고정형 영상정보처리기기를 통해 수집된 개인영상정보의 활용 가능성이다. 현재 개인정보 보호법은 제25조의2에서 공개된 장소에서 이동형 영상정보처리기기로 개인영상정보를 처리하기 위해서는 촬영사실을 명확히 표시하든지 아니면 개인정보 보호법 제15조 제1항에 따른 처리근거를 확보하도록 규정하고 있다. 즉, 촬영사실을 명확히 표시하기 어려운 상황이라도 개인정보 보호법 제15조 제1항의 요건을 갖추면 개인영상정보를 처리할 수 있는 것이다. 이때 동법 제15조 제1항의 요건은 단순히 정보주체의 동의를 받는 경우 뿐만 아니라 정보주체와의 계약의 이행을 위해 필요한 경우 및 개인정보처리자의 정당한 이익 달성을 위한 경우에도 충족될 수 있다. AI 시대가 도래하면서 일정한 이익 형량을 통해 정보주체의 권리를 침해할 우려가 적은 경우 개인정보처리자의 정당한 이익을 근거로 개인정보를 처리할 수 있는 범위가 점점 넓어질 것으로 기대가 된다. 개인정보보호위원회 역시 지난달 발간한 개인정보 처리 통합 안내서에서 그 동안 정보주체의 동의에만 근거해 개인정보를 처리했던 과거 관행에서 탈피했다. 동의 외 다른 적법한 개인정보 처리 근거의 활용 방안을 적극적으로 제시한 것이다. AI 모델을 채택한 이상거래 탐지 시스템(FDS) 운영에 있어 정당한 이익을 근거로 개인정보를 처리할 수 있는 가능성을 제시한 것이 대표적인 사례다. 그런데 문제는 고정형 영상정보처리기기를 통한 개인영상정보의 처리이다. 개인정보 보호법 제25조는 이동형 영상정보처리기기를 규율하는 동법 제25조의2와는 달리 공개된 장소에서 고정형 영상정보처리기기를 운영하며 개인영상정보를 처리하고자 하는 경우 법령에서 허용하고 있거나 시설안전, 범죄 예방 등 제한된 목적을 위해서만 허용하고 있다. 아울러 개인정보 보호법 제58조 제2항에서는 공개된 장소에서 CCTV를 운영하는 경우 동법 제15조를 적용하지 않는다고 규정한다. 이에 따라 공개된 장소에서 CCTV를 운영하는 경우 시설 안전이나 범죄 예방 등과 같은 목적과 관련이 없는 AI 시스템 개발 등 법에서 나열하지 않은 목적을 위해 개인영상정보를 처리하기 위해서는 개인정보 보호법 제18조의 요건을 준수해야 한다. 동시에 개인정보 보호법 제18조 제2항에서는 동법 제15조에서 정하고 있는 개인정보처리자의 정당한 이익을 근거로 한 개인정보의 수집 및 이용을 따로 정하고 있지 않다. 상황이 이러하다 보니 개인정보 보호법 제25조를 엄격하게 해석하면 공개된 장소에서의 CCTV를 통한 개인영상정보의 활용 범위는 다소 제한적일 수밖에 없다. AI 개발을 위해 개인정보처리자의 정당한 이익을 원용해야 하는 경우가 발생할 수 있는데 공개된 장소에 설치된 CCTV 영상정보의 경우 개인정보 보호법 제15조에 따른 정당한 이익에 관한 근거 규정을 활용하기 어렵기 때문이다. 사업자로서는 개발하고자 하는 AI가 시설안전이나 범죄예방을 위한 경우 등이 아닌 한 개인영상정보를 처리할 근거 마련에 어려움을 겪을 수 있다. 대안으로 가명정보 처리 특례에 관한 규정에 의존해야 하는데 아무래도 가명정보 활용 시 원본 데이터 활용에 비해 데이터의 품질 및 AI의 성능 저하로 이어질 수 있다. AI와 같은 신규 서비스 개발을 위해 이동형 영상정보처리기기와 고정형 영상정보처리기기를 규범적으로 다르게 보아야 할 이유가 있을지 의문이다. 향후 AI는 다양한 분야에서 활용될 것으로 기대되고 학습데이터에는 텍스트나 음성은 물론 영상정보도 필요하기 마련이다. 이러한 데이터에는 개인정보가 포함되기 마련이므로, 이에 대한 적절한 통제장치는 마련하되 규제의 불균형으로 인해 처음부터 특정한 유형의 정보만 학습데이터로 활용하는 길을 봉쇄하는 것은 피해야 한다. 최근 기존 이미지 생성 AI에서 한층 진일보한 AI 이미지 생성 모델인 나노 바나나(Nano Banana)가 등장했다. 해당 AI를 이용하면 기존 이미지의 일관성은 유지하며 일부 사진 속 요소들만 정밀하게 수정이 가능하다. 국내에서도 이와 같은 이미지, 사진 등을 활용한 생성형 AI 기술력을 확보하기 위해서는 개인영상정보를 활용한 AI 개발 시 유연하고 적극적인 행정해석이 필요하지 않을까 생각해 본다.

2025.08.31 09:42이준호 법무법인 태평양 컬럼니스트

[기고] 의도하지 않은 AI의 민감정보 처리

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)은 이제 모두의 일상에 자연스럽게 자리하고 있다. 궁금한 것이 생겼을 때 AI에게 물어보거나 상담하고 자료를 분석하거나 정리하는 도구로도 활용한다. 마치 운전자가 내비게이션을 켜는 것처럼 AI는 필요할 때 자연스럽게 손이 가는 생활의 기본 도구가 됐다. 그러다 보니 AI에 입력되는 질문, 명령어, 자료 등에는 입력하는 사람에 관한 다양한 정보가 포함된다. 여기에는 그 사람을 식별하고 특정할 수 있는 개인정보는 물론 그 중에서도 그 사람의 사생활에 밀접하게 관련된 '민감정보'가 포함될 수 있다. 개인정보 보호법상 민감정보는 사상이나 신념, 노동조합이나 정당의 가입이나 탈퇴, 정치적 견해, 건강, 성생활 등에 관한 정보, 유전정보, 범죄경력자료, 생체정보(특정 개인을 알아보기 위해 활용되는 사람의 지문, 얼굴, 홍채, 정맥 등), 인종이나 민족에 관한 정보를 의미한다. 이러한 민감정보는 개인정보 중에서도 정보주체의 사생활을 현저히 침해할 우려가 있다. 이 때문에 개인정보 보호법은 민감정보의 수집 및 이용을 원칙적으로 금지한다. 예외적으로 정보주체의 별도 동의를 받거나 법령에서 민감정보 처리를 허용하는 경우에 한해서만 그 수집과 이용을 허용하고 있다. 이에 따라 AI 서비스를 통해 민감정보가 포함된 정보를 수집하는 것이 예상된다면 미리 이용자로부터 민감정보 처리에 관한 별도 동의를 받아야 할 것이다. 물론 일부 법에 근거해 민감정보 처리가 가능할 수도 있다. 병원 등 의료기관이나 장애인 지원 서비스 관련 AI 상담 챗봇이나 인사 AI 시스템일 경우가 그러한 경우다. 경우에 따라서는 서비스 제공자는 물론 이용자도 AI를 통해 민감정보가 입력될 것을 의도하거나 예상하지 못함에도 정보가 입력되는 경우가 존재한다. 상품 배송 고객센터 상담 챗봇에 고객이 특정 질환이나 병명을 언급하는 경우나 번역이나 문서 요약 등을 위해 업로드한 자료에 각종 민감정보가 포함되어 있을 수도 있다. 앞서 언급한 것처럼 민감정보는 별도 동의나 법령상 근거로만 수집이 가능하다. 통상적으로 민감정보 수집이 예정되지도 않고 어떤 민감정보가 수집될지도 알 수 없는 상황에서 미리 포괄적으로 민감정보 수집 및 이용 동의를 받는 것은 지나치게 포괄적인 동의다. 이 때문에 적법하다고 보기 어렵고 이러한 경우라면 민감정보 수집을 허용하는 법령상 근거도 당연히 없을 것이다. 아직까지는 이러한 문제가 본격적으로 대두되지는 않았다. 민감정보는 대체로 관련 서비스 제공 과정에서 그 수집 및 이용이 수반되거나 예정되는 경우가 많고 사전에 해당 민감정보 처리의 동의를 받으면 되기 때문이다. 그럼에도 의도되지 않은 AI의 민감정보 수집과 이용은 분명 존재하고 특히 민감정보가 포함된 자료 업로드는 예기치 못한 사회적 이슈를 초래할 수도 있다. 일례로 이용자가 번역이나 문서 요약 등을 위해 AI에 올린 자료 안에 본인이나 심지어 제3자의 의료기록, 범죄경력자료, 노동조합 활동이력 등이 포함될 수 있다. 이는 해당 정보주체의 개인정보, 그것도 민감정보의 자기결정권을 중대하게 침해할 수 있다. 이 문제와 관련해서는 1차적으로 AI 서비스 제공자가 AI 서비스상에서 민감정보의 처리가 이뤄지지 않도록 조치하는 방법이 있다. 다만 다양한 한계로 인해 AI 서비스 제공자가 입력된 민감정보를 완전히 적법하게 처리하기는 거의 불가능에 가깝다. 이용자로 하여금 민감정보를 완전히 비식별화한 후에만 자료나 정보를 업로드하도록 강제할 수단은 사실상 없다. 그런 서비스를 이용할 이용자는 거의 없을 것이기 때문이다. 더불어 서비스 제공자가 업로드된 자료나 정보(민감정보 포함)를 수집하고 그 자료나 정보에서 민감정보를 인식, 분류해서 삭제하는 것 자체도 결국 민감정보의 '처리'에 해당된다. 규제기관 차원에서 위와 같은 사정이 적극 고려될 필요가 있다. 민감정보 처리가 의도되지 않는 수많은 AI 서비스가 법령과 규제의 범위 내에서 적법하게 정보를 처리할 수 있는 현실적인 가이드라인이 마련되길 기대해 본다.

2025.08.18 11:32상지영 법무법인 태평양 컬럼니스트

[기고] AI의 시대, 이제는 속도가 아닌 발전

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 지난 2022년 11월 '챗GPT 3.5'가 출시된 이후 인공지능(AI)의 발전은 상상을 초월할 정도로 가속화됐고 현재 생성형 AI의 발전은 우리 사회에 더 이상 낯설지 않은 흐름이 됐다. 몇 년 전까지만 해도 개발자들의 전유물로 여겨졌던 AI가 이제는 법률, 금융, 교육, 행정 등 거의 모든 영역에 스며들고 있고 실제로 현장에서 이를 체감할 기회도 많아졌다. 다만 이 시점에서 단순히 "AI가 어디까지 발전했는가"를 묻기보다 "AI가 향후 건강하게 발전하려면 지금 무엇이 필요한가"라는 질문을 던지고 싶다. 기술이 신속히 발전하는 만큼 그 토대를 구성하는 법제도적 장치, 하드웨어 인프라, 그리고 소프트웨어 설계가 균형 있게 발전하고 있는지는 냉정하게 짚어볼 필요가 있다. 우선 기술적으로 가장 눈에 띄는 변화는 소프트웨어의 고도화다. 특히 텍스트, 음성, 이미지, 영상이 통합적으로 처리되는 멀티모달 모델이 상용화 단계에 접어들면서 단순한 언어 처리 능력을 넘어 인간의 '이해'에 근접하는 방향으로 발전하고 있다. 다만 지금처럼 거대한 모델을 계속 키우는 것이 능사는 아니다. 모델 경량화, 엣지 기기에서의 활용성, 그리고 무엇보다 신뢰할 수 있는 응답과 윤리적인 판단 능력이 보다 중요해지고 있다. 개인적으로는 최근 AI 관련 자문을 맡은 일들을 통해 기술보다 'AI의 신뢰성'이 실제 사용 여부를 좌우하는 핵심이라는 점을 자주 실감한다. 일례로 법률적 조언을 제공하는 AI의 경우 "정확한 정보를 근거로 했는가", "위험한 판단을 내릴 가능성은 없는가", "결과에 대한 책임은 누가 질 수 있는가" 등 실질적인 쟁점들이 반드시 수반된다. 그러다 보니 단순한 정답을 제공하는 AI보다는 위험을 감수하지 않는 AI, 즉 신뢰성과 보수성을 갖춘 설계가 중요하게 평가되는 상황이다. 이와 맞물려 하드웨어적 한계도 분명 존재한다. 고도화된 AI는 엄청난 연산능력을 필요로 하고 이에 따라 전력 소모나 서버 자원의 제약이 점점 현실적인 이슈로 떠오르고 있다. 그래픽 처리장치(GPU) 가격 급등, AI 연산용 반도체 수급 불안, 고성능 메모리 병목 등이 현실화되면서 이제는 국가 단위의 반도체 전략이 AI의 경쟁력을 좌우하게 된 상황인 것이다. 또 하드웨어와 관련해서는 하나 간과하기 쉬운 점이 있다. 바로 친환경성과 지속 가능성으로, 최근 대규모 AI 학습과정에서 발생하는 탄소 배출량이 무시할 수 없을 정도로 커졌다는 보고들이 이어지고 있기 때문이다. 유럽을 중심으로 AI 전력 사용에 대한 규제가 논의되고 있는 것도 같은 맥락이다. 기술의 발전이 환경을 침해하는 방식으로 이루어질 경우 장기적으로 사회적 반발에 부딪힐 수밖에 없다. 무엇보다 법률가로서 제도적 기반 마련의 필요성을 강조하고 싶다. AI가 만들어낸 결과에 대해 책임은 어디까지 누구에게 있는가. 이 물음은 단순한 추상적 고민이 아니라 실제 분쟁에서 빈번히 등장하고 있다. 생성형 AI가 만들어낸 문장을 토대로 명예훼손 소송이 제기된다면 그 책임은 AI 개발사에게 있는가, AI를 이용한 플랫폼에게 있는가, 아니면 해당 응답을 활용한 사용자에게 있는가. 현행법상으로는 명확하게 나눌 수 없는 회색지대가 너무 많다. 그렇기 때문에 지금 필요한 것은 책임 분산이 아니라 책임 명확화다. 이를 위해선 최소한의 법적 프레임이 있어야 한다. 일례로 일정 수준 이상의 AI 서비스에 대해선 등록제를 도입하거나 고위험 AI에 대해서는 별도의 사전검증 절차를 요구하는 방식도 고려해 볼 수 있을 것이다. 유럽연합(EU)이 AI법(AI Act)을 통해 위험기반 접근방식을 도입하고 있는 것처럼 우리도 지금부터는 기술친화적이되 이용자 보호의 원칙을 잃지 않는 방향으로 접근할 필요가 있다. 동시에 AI 학습에 필요한 데이터 확보와 개인정보 보호 사이의 균형도 지금까지 이상으로 중요한 과제가 됐다. 특히 비식별 정보의 활용에 대한 명확한 가이드라인이 부재한 상태에서는 기업들이 실질적으로 AI 모델 개선을 위한 데이터를 확보하기 어려운 환경이 이어지고 있다. 공공 데이터 개방, 데이터 샌드박스의 적극적인 운영, 저작권 및 개인정보 관련 법령 간 해석 충돌의 정비 등 기술 활용에 실질적인 길을 열어주는 정책이 마련될 필요성이 있다. 마지막으로 한 가지 더 언급하고 싶은 부분은 사람의 준비다. 기술이 신속히 바뀌는 만큼 일터의 형태, 직무의 내용, 전문성의 기준도 바뀌고 있다. AI가 법률 문서 초안을 1차로 작성하는 시대에 법률전문가의 역할도 바뀌지 않을 수 없다. 단순한 지식 습득을 넘어 AI를 협업 파트너로 활용할 수 있는 능력이 점점 중요해지고 있다. 교육체계 역시 이에 맞춰 바뀌어야 하고 실무에서도 이에 대한 적응이 필요하다. 요약하자면 지금 우리는 기술이 이끄는 변화를 따라가는 시대에서 기술의 방향을 결정해야 하는 시대로 진입하고 있다. AI 발전의 다음 단계는 단순한 속도경쟁이 아니라 신뢰성과 책임성의 경쟁이다. 이 방향성을 놓치지 않고 균형 있게 제도를 설계하고 사회적 공감대를 쌓아간다면 AI는 인간 사회에 해를 끼치지 않고 오히려 그 가능성을 확장시켜주는 동반자가 될 수 있다고 믿는다.

2025.08.01 14:45정상훈 법무법인(유한) 태평양 컬럼니스트

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

HBM4 출하 경쟁 '후끈'...엔비디아 수급 전략이 공급망 핵심 변수

리니지 의존도 낮추는 엔씨, '모바일 캐주얼' 구원투수 될까

"피지컬 GPT, 한국이 선도할 수 있다"

SK온, 정부 ESS 2차전 '압승', 왜?…3사 경쟁 본격화

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.