• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'법무법인 태평양'통합검색 결과 입니다. (23건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[기고] AI의 시대, 이제는 속도가 아닌 발전

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 지난 2022년 11월 '챗GPT 3.5'가 출시된 이후 인공지능(AI)의 발전은 상상을 초월할 정도로 가속화됐고 현재 생성형 AI의 발전은 우리 사회에 더 이상 낯설지 않은 흐름이 됐다. 몇 년 전까지만 해도 개발자들의 전유물로 여겨졌던 AI가 이제는 법률, 금융, 교육, 행정 등 거의 모든 영역에 스며들고 있고 실제로 현장에서 이를 체감할 기회도 많아졌다. 다만 이 시점에서 단순히 "AI가 어디까지 발전했는가"를 묻기보다 "AI가 향후 건강하게 발전하려면 지금 무엇이 필요한가"라는 질문을 던지고 싶다. 기술이 신속히 발전하는 만큼 그 토대를 구성하는 법제도적 장치, 하드웨어 인프라, 그리고 소프트웨어 설계가 균형 있게 발전하고 있는지는 냉정하게 짚어볼 필요가 있다. 우선 기술적으로 가장 눈에 띄는 변화는 소프트웨어의 고도화다. 특히 텍스트, 음성, 이미지, 영상이 통합적으로 처리되는 멀티모달 모델이 상용화 단계에 접어들면서 단순한 언어 처리 능력을 넘어 인간의 '이해'에 근접하는 방향으로 발전하고 있다. 다만 지금처럼 거대한 모델을 계속 키우는 것이 능사는 아니다. 모델 경량화, 엣지 기기에서의 활용성, 그리고 무엇보다 신뢰할 수 있는 응답과 윤리적인 판단 능력이 보다 중요해지고 있다. 개인적으로는 최근 AI 관련 자문을 맡은 일들을 통해 기술보다 'AI의 신뢰성'이 실제 사용 여부를 좌우하는 핵심이라는 점을 자주 실감한다. 일례로 법률적 조언을 제공하는 AI의 경우 "정확한 정보를 근거로 했는가", "위험한 판단을 내릴 가능성은 없는가", "결과에 대한 책임은 누가 질 수 있는가" 등 실질적인 쟁점들이 반드시 수반된다. 그러다 보니 단순한 정답을 제공하는 AI보다는 위험을 감수하지 않는 AI, 즉 신뢰성과 보수성을 갖춘 설계가 중요하게 평가되는 상황이다. 이와 맞물려 하드웨어적 한계도 분명 존재한다. 고도화된 AI는 엄청난 연산능력을 필요로 하고 이에 따라 전력 소모나 서버 자원의 제약이 점점 현실적인 이슈로 떠오르고 있다. 그래픽 처리장치(GPU) 가격 급등, AI 연산용 반도체 수급 불안, 고성능 메모리 병목 등이 현실화되면서 이제는 국가 단위의 반도체 전략이 AI의 경쟁력을 좌우하게 된 상황인 것이다. 또 하드웨어와 관련해서는 하나 간과하기 쉬운 점이 있다. 바로 친환경성과 지속 가능성으로, 최근 대규모 AI 학습과정에서 발생하는 탄소 배출량이 무시할 수 없을 정도로 커졌다는 보고들이 이어지고 있기 때문이다. 유럽을 중심으로 AI 전력 사용에 대한 규제가 논의되고 있는 것도 같은 맥락이다. 기술의 발전이 환경을 침해하는 방식으로 이루어질 경우 장기적으로 사회적 반발에 부딪힐 수밖에 없다. 무엇보다 법률가로서 제도적 기반 마련의 필요성을 강조하고 싶다. AI가 만들어낸 결과에 대해 책임은 어디까지 누구에게 있는가. 이 물음은 단순한 추상적 고민이 아니라 실제 분쟁에서 빈번히 등장하고 있다. 생성형 AI가 만들어낸 문장을 토대로 명예훼손 소송이 제기된다면 그 책임은 AI 개발사에게 있는가, AI를 이용한 플랫폼에게 있는가, 아니면 해당 응답을 활용한 사용자에게 있는가. 현행법상으로는 명확하게 나눌 수 없는 회색지대가 너무 많다. 그렇기 때문에 지금 필요한 것은 책임 분산이 아니라 책임 명확화다. 이를 위해선 최소한의 법적 프레임이 있어야 한다. 일례로 일정 수준 이상의 AI 서비스에 대해선 등록제를 도입하거나 고위험 AI에 대해서는 별도의 사전검증 절차를 요구하는 방식도 고려해 볼 수 있을 것이다. 유럽연합(EU)이 AI법(AI Act)을 통해 위험기반 접근방식을 도입하고 있는 것처럼 우리도 지금부터는 기술친화적이되 이용자 보호의 원칙을 잃지 않는 방향으로 접근할 필요가 있다. 동시에 AI 학습에 필요한 데이터 확보와 개인정보 보호 사이의 균형도 지금까지 이상으로 중요한 과제가 됐다. 특히 비식별 정보의 활용에 대한 명확한 가이드라인이 부재한 상태에서는 기업들이 실질적으로 AI 모델 개선을 위한 데이터를 확보하기 어려운 환경이 이어지고 있다. 공공 데이터 개방, 데이터 샌드박스의 적극적인 운영, 저작권 및 개인정보 관련 법령 간 해석 충돌의 정비 등 기술 활용에 실질적인 길을 열어주는 정책이 마련될 필요성이 있다. 마지막으로 한 가지 더 언급하고 싶은 부분은 사람의 준비다. 기술이 신속히 바뀌는 만큼 일터의 형태, 직무의 내용, 전문성의 기준도 바뀌고 있다. AI가 법률 문서 초안을 1차로 작성하는 시대에 법률전문가의 역할도 바뀌지 않을 수 없다. 단순한 지식 습득을 넘어 AI를 협업 파트너로 활용할 수 있는 능력이 점점 중요해지고 있다. 교육체계 역시 이에 맞춰 바뀌어야 하고 실무에서도 이에 대한 적응이 필요하다. 요약하자면 지금 우리는 기술이 이끄는 변화를 따라가는 시대에서 기술의 방향을 결정해야 하는 시대로 진입하고 있다. AI 발전의 다음 단계는 단순한 속도경쟁이 아니라 신뢰성과 책임성의 경쟁이다. 이 방향성을 놓치지 않고 균형 있게 제도를 설계하고 사회적 공감대를 쌓아간다면 AI는 인간 사회에 해를 끼치지 않고 오히려 그 가능성을 확장시켜주는 동반자가 될 수 있다고 믿는다.

2025.08.01 14:45정상훈 법무법인(유한) 태평양

[기고] AI G3 도약과 데이터 정책을 위한 제언

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 이재명 정부는 출범 직후부터 인공지능(AI) 기술 발전을 핵심 국정과제로 삼고 한국을 'AI G3(Global Top 3)' 국가로 도약시키겠다는 강한 의지를 천명했다. 그 세부적인 계획으로 100조원의 투자 계획, 초거대 모델 개발, 인프라 확대, 인재 양성 등의 전략적 로드맵을 설정하고 AI 기술과 정책에 전문성이 있는 민간 인사를 수장으로 임명함으로써 말뿐이 아닌 속도감 있는 정책을 추진하고 있다. 다만 이러한 의욕적인 정책 드라이브에서 AI 생태계를 진작시키는데 있어 매우 중요한 데이터 활용 정책을 간과하고 있는 느낌이다. 우선 AI 기본법의 시행령 마련이 예상보다 지연되고 있는 점에 아쉬움이 있다. 행정부 교체에 따라 과학기술정보통신부 수장의 교체가 이뤄졌고 이에 따라 AI 국가 정책의 기본이 되는 AI 기본법 시행령 초안이 아직 공개되지 못한 것은 이해할 만한 측면도 있다. 그럼에도 내년 1월 시행 예정인 AI 기본법의 내용을 그 준수 의무를 부담하는 수범자들이 구체적인 내용을 알지 못한 상태에서 법 시행전까지 준비해야 한다는 것은 일정 상 너무 촉박한 상황이다. AI 기본법의 주요 의무 조항에 대한 집행을 1년 내지 3년간 유예해 달라는 요구가 제기되고 있는 것도 이러한 사정에 기인한 바가 크다. 보다 본질적인 문제는 데이터 활용에 대한 정책적 우선순위의 문제다. AI 경쟁력의 핵심은 결국 데이터의 양과 질, 그리고 이를 합법적이고 효율적으로 활용할 수 있는 제도적 기반일 것이다. 우리나라의 개인정보 보호법은 개인정보 규율 체계에 있어 규범적 기준을 제시하고 있다. 다만 동시에 경직되고 엄격한 해석과 현실에 괴리된 규제로 인해 새로운 기술인 AI 개발에 있어서는 장애물로 작용할 수 있다는 지적들이 존재한다. 지속 가능하고 효율적인 AI 개발을 위해서는 산업계가 보유하고 있는 개인정보의 합리적인 수준의 활용이 필수적으로, 데이터의 분석과 활용이 혁신의 기반이 된다는 점을 정책결정자들이 분명히 인식할 필요가 있다. 데이터 활용 가치를 극대화하는 것은 시급한 과제이며 한국이 글로벌 AI 경쟁에서 경쟁력을 높이기 위한 첫걸음이다. 동시에 현 정부가 강하게 추진 중인 소버린 AI는 기술의 독립성과 자율성을 강조하고 있으나 그 구체적 실현 방식은 여전히 불분명하다. 정부는 소버린 AI를 통해 국내에서 독자적인 거대언어모델(LLM)을 개발하는 것을 AI 정책의 핵심 기반으로 삼고자 하는 것으로 보인다. 다만 소버린 AI를 통한 기술적 자립에 대한 강조만큼이나 중요한 데이터 활용이라는 정책적 방향성에 대한 준비와 액션 플랜이 상대적으로 소홀하지 않는가라는 우려도 존재한다. 특히 현행 데이터 법제도는 기업이 보유하고 있는 방대한 비공개 데이터를 AI 학습, 특히 LLM이나 거대 멀티모달 모델(LMM)과 같은 파운데이션 모델의 연구 개발에 활용하는데 있어 제약이 존재한다. 지난 2월 국가인공지능위원회는 AI 개발에 있어 데이터의 중요성을 인정하고 모델 학습을 위한 데이터 활용이 반드시 동의에만 근거해야 하는 것은 아니라는 개인정보보호위원회의 의안을 채택한 바 있다. 다만 정보주체의 권리를 해치지 않으면서도 실제 데이터를 활용할 수 있는 합리적인 법적 근거는 아직 마련되지 않아 데이터 기반 기술의 연구 개발이 지연되고 있는 것이 여전히 현실이기도 하다. 자유로운 연구 개발에 몰두할 수 있도록 하는 것은 AI 기술 연구와 산업의 발전에 매우 중요한 요소다. 민간이 오랜 기간 축적한 데이터를 합리적이고 적법한 방식으로 활용할 수 있도록 제도적 기반을 정비하는 것이 AI 기술 주권을 실현하는 데 있어 보다 전략적이고 지속가능한 접근이 될 수 있다. 결국 개인정보 보호와 AI 혁신은 이분법적으로 접근할 대상이 아니다. 기술 주권과 데이터 활용은 상충되는 개념이 아니라 상호 보완적으로 작동해야 하는 축이다. 소버린 AI 전략이 의미 있는 성과를 거두기 위해서라도 정부는 데이터 활용을 가능하게 하는 제도적, 법적 기반 마련에 보다 집중할 필요가 있다. 개인정보 보호법 상 추가적 이용과 같은 현실적인 개선방안이 충분히 존재하고 AI 학습 데이터 문제를 해결하기 위한 방안으로서 입법 제안된 개인정보 특례 조항 역시 데이터 학습을 통한 안전한 활용을 도모할 수 있는 유용한 통제 장치다. 이들을 유연하게 해석하고 운용하는 것이야말로 한국이 AI G3로 도약하는 데 필요한 규제혁신의 출발점이 될 수 있다. 정부의 비전이 선언적 수준에 머무르지 않기 위해서는 기술적 투자의 한 축으로 데이터 거버넌스 개선을 병행해야 할 필요가 있다. 지금 필요한 것은 강한 정책 추진력뿐만 아니라 균형 잡힌 규제 설계와 정책 간 조율이다. AI G3라는 목표가 구호에 그치지 않고 글로벌 경쟁에서 또 한 번 기회를 놓치지 않도록 데이터 정책에 대한 관심이 더 필요한 때다.

2025.07.20 09:48강태욱 법무법인 태평양

[기고] 새 정부 출범과 인공지능 시대

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 22대 대통령 선거를 통해 국민주권정부가 출범하면서 대통령실에 '인공지능미래기획수석실'이 신설됐다. 수석으로 누가 임명될지 많은 사람들이 촉각을 곤두세우고 있을 때 네이버클라우드 인공지능이노베이션센터장이 임명됐다. 장관 지명 과정에서는 과학기술정보통신부장관으로 배경훈 LG AI연구원장이 지명돼 정부는 인공지능(AI)이 정부의 주요 정책 목표 중의 하나라는 것을 천명했다. 이재명 대통령이 국민과의 대화 방식으로 호남에서 사람들의 의견을 청취하는 과정에서 한 AI 개발사업자의 말이 화제가 된 바 있다. AI 카메라를 이용해 돼지 마릿수와 무게를 바로 측정할 수 있는 기술을 개발한 인트플로우의 대표는 이날 이재명 대통령에게 자신이 왜 축산업에 AI에 먼저 도입해 서비스를 개발했는지 설명했다. 그는 차량, 의료 등의 경우에는 모두 개인정보보호가 이슈가 돼 축산업에 AI 기술을 도입하게 됐다고 설명을 했다. 정책 제언 과정 중에 나온 에피소드이지만 우스우면서도 슬픈 이야기다. 언어가 존재를 규정하는 것처럼 행동도 존재를 규정한다. 이번 정부는 인공지능수석실을 신설하고 국내에서 AI 개발을 주도했던 두 인재를 중용했다. 이로써 정부에서 AI가 산업 및 경제 전략 관점에서 중요한 역할을 할 것이라는 점을 모두 예상하게 됐다. 이에 정부가 AI 정책을 추진함에 있어 함께 고민해볼 몇 가지 제언을 덧붙이고자 한다. 우선 원활하게 운용될 수 있는 데이터 파이프라인이 만들어져야 한다. AI 학습에 사용될 수 있는 데이터는 공공데이터와 민간데이터로 나눌 수 있다. 공공데이터는 공공데이터법에서 정한 예외 사유가 아니라면 충분히 AI 학습용으로 사용될 수 있다. 그런데 여전히 시중에는 공공데이터가 제대로 이용되지 않는다는 이야기들이 많이 있다. 이는 개인정보로서의 공공데이터의 문제일 수도 있지만 아직까지 공공데이터 개방이 적극적으로 추진되지 않고 있기 때문일수도 있다. AI 학습에 이용될 수 있는 공공데이터를 목록화하고 실제 학습에 사용될 수 있는 형식으로 가공해 학습용으로 제공할 수 있는 정책 도입이 필요하다. 민간데이터의 경우 AI 학습용의 경우에는 규제 적용 방식을 개선하거나 제도적인 예외 조치를 인정할 필요가 있다. 더불어 공공 AI전환(AX)을 통한 AI 산업 성장 동력 확보가 매우 중요하다. 이미 하정우 수석 등이 이야기한 것처럼 정부 AI 대전환은 국내 산업에 대한 하나의 모멘텀이 될 수 있다. 정부에서 활용할 수 있는 AI 서비스가 등장하고 유관 서비스가 활성화되는 것은 국내 AI 시장 및 산업의 저변 확대에 기여할 것이다. 다만 공공AX 추진과 민간시장에서의 시장 활성화를 일치시킬 필요는 없다. 공공AX 추진을 통한 모멘텀 확보와 민간 영역에서의 다양한 AI 서비스 활성화 및 투자는 서로 연관돼 있으나 주체가 다른만큼 이를 일체화할 필요는 없고다. 또 민간시장에서의 경쟁 및 투자 활성화를 위한 제도적인 장치들도 꾸준히 같이 추진돼야 한다. 마지막으로 규제 일관성에 대한 고민이 필요하다. 인공지능 기본법 제정에 따라 과기정통부가 AI에 대한 제도 설계 및 규제권한을 가지게 됐다. 다만 개별 영역에서의 AI에 대한 위험성 판단은 조금씩 달라질 수 있다. 이런 점 때문에 개별 부처에서도 AI를 육성하거나 규제하려는 의사를 내비추고 있다. 이는 개별 영역에서의 AI 도입에 따른 리스크가 다르기 때문에 자연스러운 현상일 것이다. 다만 인공지능수석실이 신설된 만큼 정부 부처 간 원활한 소통을 통해 규제를 받는 사업자들이 규제의 차이로 인한 혼란을 겪지 않을 수 있도록 할 필요가 있다.

2025.07.07 08:29윤주호 법무법인 태평양

조경식 전 차관, 태평양 고문으로 합류…"정보통신 정책 설계자, 로펌行"

정보통신·미디어 산업의 규제 지형이 신속히 변화하는 가운데 법무법인 태평양이 새로운 인물 영입으로 고객사 리스크 대응력을 높이기 위해 나섰다. 법무법인 태평양은 조경식 전 과학기술정보통신부(과기정통부) 차관이 정보기술·방송·통신 그룹 고문으로 합류했다고 2일 밝혔다. 조 고문은 향후 ICT, AI, 데이터 분야에서 기업 대상 정책 및 규제 자문에 집중할 계획이다. 조 고문은 고려대 경영학과를 졸업한 뒤 한국개발연구원(KDI) 국제정책대학원에서 공공정책학 석사, 미국 미시간주립대에서 재무관리학 석사 학위를 받았다. 이후 제34회 행정고시에 합격해 정보통신부 통신경쟁정책팀장으로 시작해 방송통신위원회 전파기획과장, 미래창조과학부 대변인, 방송진흥정책국장 등 주요 정책 직위를 거쳤다. 지난 2020년에는 대통령비서실 디지털혁신비서관으로 임명돼 데이터 경제, 디지털 정부혁신, 미디어 정책 등을 주도했다. 이후 지난 2021년부터 2년간 과학기술정보통신부 제2차관으로서 ICT 분야 전반을 총괄했다. 관료 생활 30여년 동안 행정부처와 청와대에서 실무와 기획 양쪽을 모두 경험한 인사라는 점에서 실무형 정책통으로 분류된다. 태평양 측은 조 고문이 ICT 및 방송통신 정책 전반에 대해 높은 이해도와 실무 경험을 갖췄다는 점에서 고객 자문 역량 강화에 크게 기여할 것으로 기대하고 있다. 특히 디지털 플랫폼과 관련된 각종 규제와 제도 변화 대응에 있어 전문성이 집중될 전망이다. 태평양 TMT 그룹은 최근에도 정보통신산업진흥원(NIPA) 원장을 지낸 허성욱 고문, 과기정통부 지식재산전략기획단장을 지낸 정완용 고문, 네이버에서 플랫폼·데이터 거버넌스를 맡았던 정상훈 변호사 등을 영입하며 디지털 산업 분야 자문 역량을 확장해왔다. 가상자산, 핀테크, 준법감시 부문에서도 김효봉·최희경·이수화 변호사 등을 기용해 포트폴리오를 넓히는 중이다. 이준기 태평양 대표변호사는 "조경식 고문의 합류로 미래 산업 관련 자문 역량이 한층 강화됐다"며 "디지털 정책 변화에 따른 고객사 어려움을 해소하는 데 큰 도움이 될 것"이라고 말했다.

2025.07.02 17:08조이환

[기고] 2025 대선과 AI 산업 정책, 주목해야 할 포인트는?

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 대한민국의 차기 대통령을 결정짓는 조기 대선이 이제 열흘 앞으로 다가왔다. 현재 가장 뜨거운 이슈 중 하나는 단연 인공지능(AI) 산업이다. 여야 주요 대선후보인 이재명 더불어민주당 후보와 김문수 국민의힘 후보는 모두 AI를 국가 경쟁력의 핵심 요소로 규정하고 향후 5년간 총 100조원 투입을 공약했다. 'AI 3대 강국으로 도약'이라는 지향점은 동일하나 각 후보가 목표에 접근하는 관점과 방식에는 뚜렷한 차이가 엿보인다. 이는 향후 정부의 정책과 규제환경에 많은 변화를 초래할 것인 만큼 산업과 법률 현장에서 선제적으로 준비하고 대응할 필요가 있다. 이재명 후보는 'AI 기본사회' 모델을 제시하면서 상대적으로 정부의 역할을 강조한다. AI 산업에 필수적인 고성능 그래픽처리장치(GPU) 5만개 이상 확보 및 국가 AI데이터 클러스터 조성 등 산업기반을 확충하고 AI 단과대학 신설, 석·박사급 인재 5만 명 양성 등 AI 인재를 육성하겠다는 방침이다. 그는 '모두의 AI' 프로젝트를 통해 누구나 사용할 수 있는 보편적 AI 서비스를 추진하겠다는 계획도 발표했다. 이를 위해 대통령 직속 국가인공지능위원회를 AI컨트롤타워로 내실있게 재편하고 정부·국민·기업이 함께 참여하는 AI 국부펀드 조성을 통해 재원을 마련하겠다는 그림이다. 반대로 김문수 후보는 '자유주도 성장'의 기조 하에 AI 분야에 대한 투자 및 생태계 조성 정책을 제시한다. 글로벌 빅테크 및 연기금이 참여하는 민관 합동펀드와 별도의 반도체 혁신펀드를 통해 자본 유입을 유도하고 AI유니콘 기업을 지원하겠다는 구상이다. 학습데이터 접근 경로 개방 확대 등 데이터 관련 규제를 완화하고 기준국가제 적용으로 국내에만 있는 규제를 폐지하는 등 규제혁신에 방점을 두고 있다. AI정책과 에너지 정책을 연계해 소형모듈원전(SMR)을 기반으로 분산형 전력공급 체계를 구축하겠다는 계획이 특징적이다. 두 후보 모두 인재 양성의 중요성에는 공감대를 이루고 있으나 이 후보는 'AI단과대학' 및 '한국형 과학기술(STEM) 커리큘럼' 도입과 같은 제도 중심 접근을, 김 후보는 산업계 수요 연계형 민간주도 실무 인재 양성을 추구하는 접근이다. 더불어 이 후보는 '모두의 AI', 김 후보는 'K-오픈AI'와 같은 국산 거대언어모델(LLM) 프로젝트 추진을 공약했다. 다만 모델을 '챗GPT'와 같은 글로벌 생성형AI로 삼을지 현실적 제약을 고려해 실용적 모델을 추진할지에 대한 구체적 방향성은 아직 정립되지 않은 것으로 보인다. 이 같은 정책 방향은 기술기업뿐 아니라 법률 실무에도 다양한 시사점을 제공한다. 기본적으로는 본격 시행을 앞두고 있는 AI 기본법의 하위법령 및 관련 세부 정책의 구현방향을 예의주시해야 한다. 이재명 후보가 당선될 경우에는 정부 조달, 국책 연구개발(R&D), 교육기관과 기업 간 기술이전계약 등 공공 중심의 계약관계에 많은 이슈가 예상된다. 반대로 김문수 후보가 당선되면 그가 내놓은 '규제혁신처'가 신설되고 '메가프리존'을 통해 지방자치단체가 최저임금, 근로시간 등 특례 적용 권한을 행사하는 등의 변화가 발생할 것으로 보인다. 이같은 공약이 현실화 될 경우 기업들은 규제완화 혜택 적용에 대한 검토 및 지역별로 상이한 규제에 대응하기 위한 리스크 분석과 모니터링 체계를 갖출 필요가 있다. 또 AI 반도체 핵심기술 국산화, SMR 추진 등의 정책은 환경영향평가, 원자력 인허가, 기술보호, 통상관련 이슈 등과 복합적으로 연계되어 있는 만큼 관련 법령과 인허가 절차에 대한 이해가 필수적이다. 노동법 영역도 주요한 관전 포인트이다. 김 후보 측이 언급한 전문직 주52시간 근로제 예외조항인 '화이트칼라 이그젬션'이 실제로 도입되면 AI 개발자 등 고급 인력에 대한 근로시간 규제 완화가 가능해진다. 이에 기업들은 채용조건, 계약구조, 보상체계를 포함한 인사관리 전반에 대한 검토가 필요하다. 이와 달리 이 후보는 공공교육기관 중심의 산학협력 및 인재육성 체계를 강조하고 있어 해당 기관과 기업 간의 연구개발 및 지재권 보호나 정부지원 과제에 대한 계약 등과 관련된 실무가 증가할 것으로 보인다. 결국 이번 대선은 "AI 산업의 실행 주체를 어디에 두고 어떤 속도와 방식으로 규제를 정비할 것인가"에 대한 철학의 대결이다. 각 후보의 공약은 당선 직후 구체화될 것이며 선거 후 6개월 이내에 주요 정책의 골격이 마련될 것으로 보인다. 기업의 법무 및 전략 부서와 산업 변화를 예의주시하는 법률가는 지금부터 후보별 정책이 현실화될 경우의 영향을 가늠하고 시나리오별 대응 전략을 수립해야 한다. 기술의 속도는 빠르지만 법적 대응은 더 신속히 준비돼야 한다. 이번 대선은 대한민국 AI 산업의 방향성에 있어 중요한 분기점이며 그 이후는 철저한 준비를 마친 이들의 무대가 될 것이다.

2025.05.25 07:14법무법인 태평양 노은영

[기고] AI 워싱, 신뢰를 위한 규제와 책임의 조화

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 기술이 산업 전반에 빠르게 확산되면서 'AI 워싱(AI Washing)'이라는 새로운 마케팅 현상이 두드러지고 있다. 최근 미국에서 소비자들이 '애플 인텔리전스'라는 AI 기능을 강조하는 광고를 믿고 아이폰16 등의 제품을 구매했으나 실제로는 이 기능들이 제한적이거나 아예 제공되지 않았다고 주장하면서 애플을 상대로 집단소송을 제기했다. 이는 단순한 과장 광고를 넘어 이른바 AI 워싱에 해당된다는 주장이다. AI 워싱은 말 그대로 'AI를 덧씌운 세탁 행위'다. 기업이 실제로는 AI 기술을 거의 사용하지 않거나 일부만 적용했음에도 마치 첨단 AI를 전면적으로 도입한 것처럼 홍보하는 행위를 말한다. 이는 친환경적이지 않은 기업이 마치 친환경 경영을 하는 것처럼 홍보하는 '그린 워싱(Green washing)'과 유사한 개념이다. 최첨단 AI 기술을 사용한 제품이나 서비스인 것처럼 과장해 소비자의 관심을 끌거나 선택에 혼동을 주고 AI 제품의 기능을 과장해 투자 유치 등에 나서는 것이다. AI 워싱이 만연하게 되면 소비자는 AI의 성능에 의문을 갖게 될 것이다. 실제 사용을 통해 부정적 경험이 누적될 경우 AI 기술 자체에 대한 신뢰도가 저하될 수 있다. 실제로 AI를 제대로 활용하지 않는 기업들이 '혁신 기업'으로 포장되면 진짜 기술을 가진 기업에 투자 자원이 제대로 분배되지 않아 기술 발전이 저해된다. 또 과장된 경쟁 환경 속에서 기업들이 무리한 목표를 세우고 추진할 경우 자원 낭비는 물론 프로젝트 실패로 이어져 오히려 전체 산업의 혁신 속도를 늦출 수 있다. AI 워싱을 직접적으로 규제하는 특별 법령은 아직 국내외에 마련돼 있지 않으나 기존의 소비자 보호 및 공정 거래 관련 법령을 통해 규제가 가능하다. 국내의 경우 표시광고법 등이 적용될 수 있고 미국에서는 증권거래위원회(SEC)의 증권법과 연방거래위원회(FTC)의 소비자 보호 규정 등이 적용되고 있다. 미국의 경우 SEC는 지난해 투자자문사 델피아와 글로벌프리딕션스가 AI 기능을 허위 광고했다며 각각 22만5천 달러(한화 약 3억원), 17만5천 달러(한화 약 2억3천400만원)의 벌금을 부과했다. FTC는 기업들에게 AI 활용 정보를 명확하게 표시하고 이를 공개하도록 하는 등 AI 워싱 대응에 적극적인 모습을 보이고 있다. 국내에서는 아직 AI 워싱에 대한 직접적인 제재 사례는 없다. 다만 공정거래위원회가 올해 주요업무 추진계획을 발표하면서 AI 분야와 관련해 'AI 워싱' 행위 감시 및 실태조사를 추진하겠다고 밝힌 바 있다. 또 서울 YMCA와 같은 시민단체들이 애플의 사례를 들어 공정거래위원회 조사 요청 및 검찰 고발 촉구를 검토하는 등 움직임도 보이고 있다. 다만 이 같은 현상을 오로지 기업의 윤리 문제만으로 치부할 수는 없다. AI의 개념 자체가 포괄적이고 모호하다는 점, 현행법상 "어디까지가 진짜 AI인가"에 대한 명확한 판단 기준이 없다는 점은 기업 입장에서 판단과 홍보에 혼선을 불러올 수 있다. 인공지능기본법(AI기본법)이 올해 제정됐지만 그 정의조차 '학습·추론·판단 등 인간 지능의 전자적 구현'이라는 추상적 표현에 머물러 있다. 규제 체계가 기술 발전 속도를 따라가지 못하는 상황에서 기업들이 기술적 용어에 의존할 수밖에 없는 유인도 분명히 존재한다. 이러한 구조적 한계 속에서도 기업은 소비자 신뢰를 확보하고 법적 리스크를 줄이기 위해 AI 기술의 실제 사용 범위, 성능, 한계 등을 투명하게 공개해야 한다. 단순히 'AI 기반', '지능형'이라는 문구만으로 광고하지 말고 기술의 적용 방식과 효과에 대한 구체적인 설명을 수반해 소비자의 오인가능성을 줄여야 한다. 내부적으로도 기술 검증, 홍보 문구 사전 검토 등의 컴플라이언스 체계를 갖추는 것이 필요하다. AI 기술이 사회 전반에 빠르게 확산되고 있는 지금이야말로 규제의 명확화와 기업의 책임 있는 자세가 모두 필요하다. 허위와 과장의 영역에서 기술의 신뢰는 생기지 않는다. 소비자 보호와 기술 혁신, 두 마리 토끼를 잡기 위해서는 모두의 노력이 절실한 시점이다.

2025.04.25 17:09법무법인 태평양 강정희

[기고] AI 혁신 속 개인정보 보호

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 이제 우리의 일상생활 속에는 인공지능(AI)이 깊숙이 자리잡고 있다. 과학기술정보통신부가 지난 3월 발표한 '2024년 인터넷이용실태조사'에 따르면 응답자의 60.3%가 AI 서비스를 이용한 경험이 있다고 답했다. 이는 2021년 동일한 질문에 대해 32.4%가 AI 서비스를 이용한 경험이 있다고 응답한 것과 비교하면 불과 3년 사이에 거의 두 배 가까이 증가한 수치다. 단편적인 조사 결과지만 AI가 얼마나 빠르게 우리의 삶 속으로 스며들었는지 짐작할 수 있다. AI가 단순한 기술의 범주를 넘어 삶의 필수 요소로 자리 잡게 된 배경에는 방대한 양의 데이터 학습 및 활용이 있다. 이러한 데이터에는 당연히 개인정보가 포함돼 있다. 신기술 분야의 발전은 필연적으로 데이터에 대한 높은 의존도를 수반하기에 변화하는 산업 환경에 맞춰 법과 제도를 정비할 필요가 있다. 또 정보주체의 권리를 보호하면서 개인정보를 안전하고 가치 있게 활용할 수 있는 기반을 마련하는 것이 중요하다. 개인정보보호위원회는 이러한 흐름에 발맞춰 AI 응용서비스에서 발생할 수 있는 개인정보 보호 취약점을 사전에 점검하고자 '사전 실태점검'을 실시하고 있다. 이는 AI 서비스의 개인정보 처리에 있어 투명성과 책임성을 확보하고 정보주체의 권리 보장 및 서비스의 안정적 운영에 기여하기 위한 조치라 할 수 있다. 기업 입장에서는 실태점검의 내용을 검토함으로써 AI에서의 개인정보 활용 및 보호를 위한 준수사항 등을 명확히 확인하고 실천할 수 있다. 일례로, 공개된 데이터를 활용해 AI 모델을 학습시키는 과정에서 주민등록번호나 여타 고유식별정보, 신용카드 번호와 같이 유출 시 피해가 클 수 있는 개인정보가 포함될 수 있다. 이 경우 사전 삭제 또는 비식별화 조치 등을 통해 유출 위험을 방지하는 등 개인정보를 안전하기 관리하기 위한 조치가 수반돼야 한다. 또 이용자 입력 데이터를 처리하는 과정에서 사람이 직접 해당 데이터에 접근하거나 검토를 수행하는 경우에는 이용자가 이를 인지하기 어렵다. 이에 따라 이용자로부터 미리 동의를 받는 것에는 어려움이 있고 이러한 사실을 명확하게 고지하는 것이 바람직하다. 아울러, 이용자가 입력한 데이터를 손쉽게 삭제하거나 처리 중단을 요청할 수 있도록 하는 기능도 함께 제공돼야 한다. 이에 더해 AI 서비스와 관련된 개인정보 처리의 전반에 있어 개인정보처리방침 등을 구체적으로 명시하고 관련 법령에 따른 안전조치의무를 준수해야 한다. 또 개인정보의 적법 처리 근거도 다양화할 필요가 있다. AI 모델 학습 등 연구 개발의 특성을 고려할 때 정보주체의 동의에만 의존하기보다는 개인정보처리자인 AI 서비스 사업자의 정당한 이익 등 다른 법적 근거를 함께 검토하는 것이 적절하다. 이러한 접근은 기술혁신을 위축시키지 않으면서도 정보주체의 자기결정권 등 권리를 보호하고 개인정보를 보다 안전하고 책임 있게 활용할 수 있는 토대가 된다. AI 서비스를 위한 데이터의 처리는 기술 발전의 핵심이자 경쟁력의 원천이지만 그 이면에 존재하는 개인정보 보호 문제를 소홀히 해서는 안 된다. AI에 대한 관심을 바탕으로 기술의 발전과 함께 신뢰할 수 있는 환경을 조성하기 위한 노력이 필요하다.

2025.04.11 16:46법무법인 태평양 이강혜

[기고] EU 데이터법과 인공지능 산업의 발전 방향

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 유럽연합(EU)이 제정하고 실행해 전 세계에 영향을 미치고 있는 많은 법령들이 있다. 개인정보에 관한 강한 보호와 규제를 천명한 일반정보보호규정(GDPR)이 그러하다. 전 세계에서 최초로 입안해 시행했지만 여전히 많은 논란이 제기되고 있는 EU 인공지능(AI)법 역시 전 세계 국가들로부터 반향을 불러일으키고 있다. EU가 이미 관련 법을 제정하고 시행하고 있는 상황에서 우리나라 역시 이에 대한 입법 논의가 이루어지지 않는다면 입법부가 책임을 다하지 않는 것처럼 보일 수 있다. 입법기관 구성원들 역시 마치 아무 일도 하지 않는 사람처럼 비칠 수 있어 무엇이든 조치를 취해야 한다는 압박감을 느낄지도 모른다. 근래의 EU 법안 패키지들 중 시행을 앞두고 있지만 국내에 잘 알려지지 않은 법이 있다. 법의 정식 명칭은 '데이터의 공정한 접근 및 사용에 관한 조화로운 규칙에 관한 규정'이고 줄여서는 EU 데이터법(EU Data Act)라고 부른다. 이 법은 지난해 1월에 제정이 됐고 이로부터 20개월 이후인 올해 9월부터 단계적 시행을 앞두고 있으니 사실 그 시행이 얼마 남지 않은 법이다. 이 법은 EU 내 커넥티드 제품 및 관련 서비스 사용 과정에서 생성되거나 제공되는 정보에 대해 적용된다고 한다. 이용자가 사용하는 것과 관련한 데이터, 이용자의 사용 환경과 관련한 데이터를 수집 및 생성한다. 또 그 정보가 전달할 수 있는 제품의 경우에는 기본적으로 이 법이 적용이 된다. 대부분의 법이 그러하듯 정의 조항을 읽어 봐도 그 내용이 무엇인지를 정확하기 이해하기 어려운 것은 이 법도 마찬가지다. 소위 얘기하는 커넥티드카, 건강 모니터링 기기, 스마트 홈 기기, 스마트폰 등이 이 법의 적용대상이 됨에는 별다른 의문이 없다. 이와 유사하게 서버와 이용자 기기 사이에서 데이터의 교환이 이루어지는 제품과 관련 서비스에 대해서는 모두 적용되므로 그 적용범위가 매우 넓다고 할 수 있다. 이 법은 커넥티드 제품 제조자에게 데이터 접근 중심의 설계를 의무화하고 사용자에게 데이터 제공 관련 정보를 명확하고 이해하기 쉬운 방식으로 안내할 책임을 부과하고 있다. 또 사용자의 요청이 있을 경우 제품이나 관련 서비스에서 생성된 데이터에 대한 접근 권한을 사용자에게 제공해야 하며 데이터 보유자는 사용자가 지정한 제3자와 해당 데이터를 공유할 수 있도록 해야 한다. 이 법은 의무사항을 위반한 경우 제재 수단에 대해 구체적으로 규정하고 있지는 않다. 어쩌면 이 법이 큰 주목을 받지 못하는 것은 이처럼 제재수단에 대해 법 자체에서 규정하고 있지 않기 때문일지도 모르겠다. 그럼에도 불구하고 이 법은 각 회원국에 대해 데이터법 위반자에게 부과할 과징금을 EU 내 연간 매출액 등 여러 요소를 고려해 산정하도록 하는 의무를 부여하고 있다. 이에 따라 이 법을 위반할 경우 매출액을 기준으로 한 과징금이 부과될 것이라는 점에는 큰 의문이 없다. EU 데이터법은 개인정보를 포함한 데이터의 유통을 규율하는 법률인 만큼, 개인정보 유통을 다루는 GDPR과 유사한 규정들이 일부 포함돼 있다. 글로벌 서비스를 제공하는 기업의 입장에서는 GDPR 사례에서처럼 어차피 EU 내 규제를 준수해야 하므로, 커넥티드 제품의 데이터 처리와 관련해서도 EU 데이터법 기준에 맞추어 전 세계 서비스를 동일한 수준으로 확장할 가능성이 충분하다. 과거에는 이용자로부터 수집됐지만 개인정보에 해당하지 않는 데이터의 처리는 이른바 익명정보의 영역으로 간주돼 GDPR의 적용을 받지 않았다. 또 해당 데이터가 저작권법의 보호 대상이거나 그 처리 행위가 부정경쟁행위에 해당하지 않는 이상 별다른 규제가 존재하지 않았다고 볼 수 있다. 반대로 곧 시행되는 EU 데이터법은 데이터의 수집 및 제공에 일정한 의무를 부과함으로써 이제는 이용자로부터 수집하는 데이터에 대해서도 일정한 책임과 준수해야 할 요건이 발생한다는 점을 인식할 필요가 있다. 이에 따라 기존과는 다른 관점에서 데이터 활용에 대한 발상의 전환이 요구된다. AI 산업과 관련해서도 마찬기지이다. EU 이용자로부터 커넥티드 제품을 이용해 데이터를 수집하는 경우에는 비록 개인정보가 아니라 하더라도 EU 데이터법 준수를 항상 명심해야 한다. 이용자로부터 수집한 데이터를 인공지능 서비스 개발을 위한 학습용 데이터로 사용하고자 하는 경우에도 해당 법의 준수를 미리 유의해야 한다. AI 서비스 간의 경쟁이 점점 더 치열해지고 있다. 단순히 산업 내의 문제가 아니라 국가의 생존을 위한 기술패권 다툼의 영역이 되어 가고 있는 상황이다. 이러한 상황에서 EU데이터 법의 제정과 시행이 EU 역내 국가의 경쟁력과 글로벌 시장에 어떠한 영향을 미칠지는 아직 판단하기는 어렵지만 AI를 비롯해 데이터 관련 산업의 경쟁력에 상당한 파급력을 가지게 될 것이다. 산업 보호를 명분으로 제정된 많은 법들이 오히려 기존 사업자들보다 새롭게 시장에 진입하려는 스타트업이나 신생 기업들에게 더 무겁게 작용하는 모습을 우리는 여러 차례 목격해왔다. 우리나라는 적어도 법제 측면에서는 '패스트 팔로워'를 넘어 '퍼스트 무버'로서의 입지를 점차 구축해가고 있으며 실제로 EU 데이터법과 유사한 법제를 이미 보유하고 있다. 이에 따라 산업의 보호와 발전이라는 관점에서 보다 심도 있는 논의가 이루어지고 전략적인 입법 방향이 마련되기를 기대한다.

2025.04.01 15:22법무법인 태평양 강태욱

[기고] 인공지능, 변호사와 닮은 꼴일까

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 업무에 인공지능(AI)을 사용하는 것이 당연한 시대가 되고 있다. AI 서비스가 포털의 검색서비스처럼 대중화되고 있는 것을 보니 변호사보다 법을 더 잘 아는 AI도 곧 현실이 될 것으로 보인다. 그렇다면 똑똑한 AI가 변호사를 대신할 수 있느냐는 궁금증이 생긴다. 답은 현재로서는 법적 제약이 있어서 어렵다는 것이다. 자격을 갖춘 변호사만 법률사무를 처리할 수 있도록 변호사법이 제한하고 있어서 AI가 법률사무를 처리하는 것은 불법이기 때문이다. 법전을 뒤져야 법률을 알 수 있었던 예전과 달리 법령의 내용, 적용사례, 법원 절차나 제출서류, 작성방법 같은 것은 인터넷에서 쉽게 찾을 수 있게 됐다. 또 법절차에 관한 경험담도 검색 서비스를 통해 쉽게 접할 수 있게 됐다. 이같은 요즘 상황에서 자격을 갖춘 변호사만 법률사무를 처리할 수 있게 제한하고 있는 이유가 궁금할 수 있다. 여기에는 여러 가지 이유가 있을 수 있지만 가장 근본적인 이유는 법률관계가 사람에게 미치는 영향이 크고 중요하기 때문이다. 업무로서의 법률관계에 관한 해석이나 조언을 수행하기 위해서는 법률 지식이 있는 것만으로는 충분하지 않으며 의뢰인의 비밀을 지키고 법조 윤리를 지키는 전문가에게만 허용해야 안전하다는 설명이다. 실제로 변호사는 법률 지식에 관한 시험 통과만을 요구받지 않는다. 지속적으로 윤리교육을 받을 의무, 특수한 상황에서는 수임 자료를 제출해서 점검을 받을 의무가 부과되는 등 간접적인 형태로 직업윤리가 요구되고 있다. 또 협회를 통한 자율적인 감시도 이루어지고 있다. 그런데 얼마 전 제정돼 오는 2026년 1월에 시행되는 AI기본법은 AI 서비스에 윤리와 신뢰성에 관한 권고나 의무를 구체적으로 요구한다. 그런데 이는 변호사에게 요구되는 윤리와 닮은 점이 있다. 본래 윤리란 법으로 그 내용을 확정하기 어렵기 때문에 관련 규정을 법률에서 정하는 경우가 많지 않다. 그런데 AI기본법에서는 AI 윤리를 비록 장려 형태지만 중요사항으로 규정하고 있다. 또 서비스가 AI에 기반해 운용된다는 점과 AI 결과물이라는 점을 이용자에게 알려야 하는 투명성 의무, AI의 위험과 안전사고에 대한 대응 체계를 갖추고 이행 결과를 정부에 제출해야 하는 안전성 확보에 관한 의무를 일정 요건에 해당하는 사업자에게 추가로 부과하고 있다. 이는 AI서비스가 이용자에게 중대한 영향을 줄 가능성이 있기 때문에 서비스가 윤리를 준수하고 외부 견제를 받도록 간접적인 안전조치를 취한 것으로 보인다. 변호사는 법률 지식과 자격시험 통과뿐만 아니라 윤리 준수와 외부 견제를 요구받는다. 이는 사용자에게 중요한 영향을 미치는 AI 서비스에 투명성과 안전성 조치를 요구하는 것과 닮아 있다. 더 넓게 보면 공통점은 보다 많아진다. 온라인에서 법률 정보, 판례, 해설서를 검색하고 제공하는 서비스는 변호사 자격 없이도 운영할 수 있다. 다만 구체적인 법률관계를 해석하고 자문하는 등 본격적인 법률 업무를 수행하려면 변호사 자격이 필요하다. 마찬가지로 AI 서비스도 일반적인 경우에는 특별한 제약이 없지만 사회적으로 중요한 영향을 미치는 서비스라면 정부가 개입하겠다는 태도를 보이고 있다. 향후에도 이러한 흐름은 계속될 가능성이 크다. 정부가 AI의 구체적인 내용에 개입하는 것은 어렵고 적절하지도 않다는 점을 생각하면 미래에는 법률 사무처럼 중요한 서비스를 위해 AI가 일정한 자격시험을 통과하는 제도가 생기는 것이 아닐까 섣부른 추측을 해 본다. 나아가 AI가 계속 발달한다면 변호사 자격까지 갖추고 법률사무를 처리하게 되는 것도 허황한 꿈은 아닐수 있다는 생각이 든다.

2025.03.17 14:28법무법인 태평양 류광현

[기고] AI 법제화에 따른 기업의 대응 전략

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 기술이 빠르게 발전하면서 각국이 본격적으로 AI 관련 법제화를 추진하고 있다. 다만 AI는 그 활용 분야가 특정 산업∙업무에 국한되지 않고 개발에 있어서도 여러 법률 이슈가 존재해 단일한 법으로 모든 문제를 해결하는 것은 매우 어려운 일이다. 우리나라도 내년부터 시행 예정인 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'을 통해 AI의 정의∙분류와 사업자의 기본적인 의무 등에 관한 법적 틀을 마련한 바 있다. 그러나 AI의 개발∙운용이 기존의 개인정보 보호법, 저작권법, 독점규제 및 공정거래에 관한 법률 등 여러 법률과 맞물려 있는 상황으로, 기업들은 AI 관련 사업이나 업무를 추진할 때 다양한 법률에 대한 종합적인 검토를 거쳐야만 안심할 수 있다. 이러한 사정은 해외에서도 마찬가지다. 특히 유럽연합(EU)에서는 AI 시스템의 위험도 및 그에 따른 의무 등을 규정한 'EU AI법'을 중심으로 다양한 기타 법안들을 살펴볼 필요가 있다. 이 중에는 AI 개발∙운용에 수반되는 개인정보 처리에 적용되는 '일반정보보호 규정(GDPR)', 디지털 시장 및 서비스에 적용되는 '디지털 시장법(DMA)' 및 '디지털 서비스법(DSA)', 특정 산업에서의 경쟁제한성과 독점적 지위 강화에 대한 경쟁법 등을 살펴봐야 한다. 최근 기업의 타겟이 글로벌화 되면서 국가 간 경계가 흐려지고 있고 AI 개발에 활용되는 데이터도 특정 국가에서 생성∙수집된 것으로 한정되지 않고 있다. 이에 AI를 개발하고 활용하는 과정에서 국내뿐 아니라 해외 규제도 종합적으로 검토하는 것은 필수적인 과정이 됐다. 이에 따라 기업이 복잡한 규제 환경에서 AI를 안전하게 개발∙운용하기 위해서는 단순히 법제 동향을 파악하는 것을 넘어 AI 개발 및 운영 과정 전반에서 법적 위험을 사전에 검토하고 대응책을 마련할 수 있는 체계를 구축해야 한다. 이를 위해 기업이 실질적으로 고려해야 할 대응 전략으로는 다음과 같은 것들이 있다. 먼저 AI 기획∙개발∙운용 단계별로 적절한 법적 검토가 이루어질 수 있도록 내부 검토 기준을 마련할 필요가 있다. 특히 AI 기획∙개발 단계에서는 알고리즘의 공정성, 학습 대상이 되는 데이터 조달 방식에 따른 개인정보 처리 적법성, 저작권∙초상권 침해 여부 등의 위험요소에 대한 검토가 필요하다. AI 운용 단계에서는 이용자의 권리∙의무에 미치는 영향, AI 결정의 불공정성, 투명성 등에 대해 검토가 필요하다. 이 외에 AI를 직접 개발하는 것이 아니라 외부 AI 솔루션을 도입하거나 데이터를 외부에서 제공받는 형태로도 개발이 이루어질 때가 있다. 외부 제3자와 협업하는 경우에는 법적 위험을 최소화할 수 있도록 업체 선정 및 계약 단계에서부터 실제 개발∙활용 단계까지 양사 간 법적 관계 및 책임 소재를 명확히 하기 위한 기준을 마련해야 한다. 특히 데이터의 적법성 및 활용 범위, 저작권∙라이선스 등에 대해 분쟁이 발생할 위험이 있으므로 이러한 부분을 유의해야 한다. 이처럼 기업은 내부 인원들이 이러한 단계별 위험요소를 충분히 인지하고 각 단계별로 법적 검토를 진행할 수 있도록 큰 틀의 검토 기준을 마련하고 이를 교육하는 절차를 구축해야 할 것이다. AI 기획∙개발∙운용 단계별로 고려가 필요한 내부 기준이 마련되면 이제 이를 실효성 있게 만들 수 있는 거버넌스 체계를 구축해야 한다. AI 기술이 기업 내에서 광범위하게 활용되면서 개별 부서에서 각각 별도의 AI 시스템을 개발하는 사례가 많아지고 있다. 기업 내부에서 기준을 마련했다고 하더라도 이를 체계적으로 검토하기 위한 거버넌스가 구축돼 있지 않다면 AI 모델이 완결성 있는 검토 없이 개발돼 사후적으로 큰 문제가 발생할 수 있다. 이를 방지하기 위해 내부 지침 및 기준 등에 맞게 체계적인 검토를 주도할 수 있는 위원회나 담당부서 등을 신설 또는 지정할 필요가 있다. 실제로 시스템을 구축한 사례들을 살펴보면, 글로벌 기업인 A사는 자사 AI 시스템의 영향도, 목적적합성, 데이터 거버넌스, 투명성, 안정성 등을 평가하기 위한 종합적인 AI 가이드라인을 구체적으로 제시했다. 또 AI 원칙, 기술, 윤리, 법률, 정책 분야의 최고 전문가들로 구성된 내부 위원회를 통해 최신 AI이슈에 대한 조사, 정책 개발 및 도구 제작, 특정 기술 분야에 대한 실행 지침 수립, AI 모델 평가 등의 업무를 수행하고 있다. 이 외에도 많은 기업들이 자신의 입장을 고려한 AI 거버넌스를 구축하고 있다. 분야를 막론하고 이들의 공통점은 일관된 기준과 그 기준을 구체화한 가이드라인, AI 개발∙운용에 대한 체계적인 관리를 위한 거버넌스를 구축하고 있다는 점이다. AI에 대한 법적 규제가 고도화되고 있으나 AI의 복잡성과 발전 속도로 인해 많은 기업들이 그 대응 전략을 설정하는 데 어려움을 겪고 있는 것도 현실이다. AI가 공급망 전단계에 걸쳐 다양하고 새로운 법적 위험을 내포하고 있는 만큼 이에 대한 대비가 부족한 경우 불필요한 법적 분쟁에 휘말릴 가능성이 커질 수밖에 없다. 반면 AI 법제를 선제적으로 검토하고 체계적인 위험 관리 체계를 갖춘 기업은 단순한 규제 준수를 넘어 효율성 있는 정책 및 전략 수립을 세울 수 있을 것이다. 이로써 이들이 AI 비즈니스에서 경쟁력을 확보할 수 있는 기회를 갖게 될 것도 명확하다. AI 법제화가 진행되는 글로벌 환경에서 기업들이 해야 할 일은 분명하다. 단순히 AI 기술을 개발하는 것을 넘어 AI의 법적 위험을 줄이고 이를 체계적으로 관리할 수 있는 AI 관리 시스템을 구축하는 것이다. 이것이 기업이 글로벌 AI 경쟁에서도 지속 가능한 경쟁력을 확보하는 길이다.

2025.02.28 14:15법무법인 태평양 오세인

[기고] 원본 데이터 AI 활용 특례, 신기술 혁신 속도와 수요 반영해야

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 개인정보보호위원회와 과학기술정보통신부는 지난해 4개 사업자들을 대상으로 자율주행 인공지능(AI) 시스템 고도화를 위한 영상정보 원본을 활용하는 실증특례를 지정했다. 조금 풀어서 설명하자면 자율주행 AI 학습에는 보행자의 얼굴, 위치, 차량번호 또는 개인정보가 포함된 주행영상 등 영상정보가 필요하다. 현행 개인정보 보호법상 AI 학습에 주행영상 등 영상정보를 활용하려면 정보주체의 동의를 받거나 해당 정보를 가명처리해야 한다. 당연히도 전자는 불가능하고 후자의 경우 보행자 인식률이 저하되는 등 정보의 가치가 떨어지게 된다. 이러한 상황을 타개할 수 있는 것이 규제샌드박스 실증특례 제도다. 이 제도는 사업자가 신기술을 활용한 새로운 서비스를 일정 조건 하에 시장에 우선 출시해서 시험, 검증하게끔 현행 규제 일부를 적용하지 않도록 허용해 준다. 사업자들은 이 실증특례 지정을 신청해서 허용받음으로써 강화된 안전조치 기준을 마련하고 개인정보보호위원회의 주기적 점검을 받도록 하는 등을 조건으로 가명처리하지 않은 영상데이터의 원본을 AI 학습에 활용할 수 있게 됐다. 매우 의미 있는 제도임에도 사업자들이 실증특례 제도를 적극적으로 이용하지 못하는 결정적인 이유가 있다. 규제에서 자유로워지는 것이 아니라 최대 4년의 기간 동안만 규제 적용을 유예 받을 뿐이기 때문이다. 유예 기간 내에 법령이 정비돼 관련 규제가 개선되지 않으면 해당 서비스는 다시 '임시허가'를 통해 시장에 출시해야 한다. 심지어는 유예 기간 중 처리해 왔던 방식에 따라 데이터를 처리하는 경우 법 위반으로 출시를 못하게 될 수도 있다. 개인정보보호위원회는 새해 주요 업무 추진계획 6대 핵심 추진과제 중 하나로 AI 시대에 부합하는 개인정보 법제를 정비하겠다고 공표한 바 있다. 그러면서 자율주행 AI 개발 등 가명처리만으로 연구 목적 달성이 곤란한 경우 원본 데이터 활용을 개인정보 심의, 의결 하에 허용하는 특례를 마련하겠다고 발표했다. 이는 현행 규제샌드박스 실증특례는 최대 4년 동안만 규제 적용을 유예해 준다는 한계를 극복하기 위한 조치로, 개인정보 보호법에 특례 규정을 신설해 AI 개발을 위한 원본 데이터 활용을 허용할 방침이다. 더불어 개인정보보호위원회의 심의·의결과 사후 점검 등의 조건을 둬 개인정보 보호도 함께 도모할 계획이다. AI 기반 기술과 시스템이 더욱 빠른 속도로 고도화돼 가고 있는 현 상황에서 AI 학습 목적의 원본 데이터 활용을 금지할 수 없다는 위원회의 결단으로 풀이돼 공감이 간다. 다만 추진계획에 따르면 이러한 내용이 담길 개인정보 보호법 개정안은 AI 개발 사업자의 '정당한 이익'이나 '공익' 등을 고려하도록 하고 있어 오히려 원본 데이터 활용이 예상외로 제약될 가능성이 있어 보인다. 추후 구체적인 개정안을 구체적으로 살펴봐야 하겠으나 신기술의 개발이 아닌 사회적 편익이나 공익을 고려해 특례를 허용할 경우 제도의 취지에도 불구하고 상당수의 AI 개발 사업은 이 특례 제도를 활용하기 어려워질 것이다. 위원회가 심결이나 사후 현장점검 등을 어떻게 운영할지도 특례 제도 활용에 있어서 매우 중요한 요소가 될 것으로 보인다. 우선 위원회가 업무 추진계획에서 밝힌 바와 같이 합리적이고 유연한 법 해석을 통해 신기술 변화와 현행 법 체계 간 간극을 완화하기 위해서는 위원회의 심결이 신속하게 이루어져야 할 것이다. 기존 규제샌드박스 실증특례는 유사 사례가 있는 경우 패스트트랙 제도를 통해 승인 기간을 평균 4~5개월에서 2개월로 단축해 운영하고 있는 상황이다. 심결 이후에도 위원회의 관리, 감독을 통해서도 사후 통제가 가능한 점을 감안할 때 심결은 가급적 간이하고 신속하게 이뤄질 필요가 있다. 위원회의 사후 관리, 감독도 지나치게 포괄적인 범위의 점검이나 자료제출 요구 등이 이뤄지지 않는지 검토가 필요하다. 심결이 간이하게 이뤄진다면 사후통제 기능이 어느 정도 작동해야 하겠으나 AI 개발 사업자 입장에서 사업 운영에 지장이 갈 정도로 관리, 감독 등이 이뤄진다면 사업자로서는 특례 제도를 고려할 실익이 없게 된다. 이 부분은 AI기본법의 제정 과정에서도 유사한 논란이 제기된 바 있다. 원본 데이터를 가명처리 없이 쓰도록 허용해 주는 특례 제도를 도입하더라도 어느 정도의 제한이 부여되어야 한다는 점은 충분히 공감한다. 다만 신기술 및 신산업 혁신 촉진을 도모하기 위해 도입되는 제도인 만큼 AI 개발 사업자들이 특례 제도를 활용할 '엄두'는 낼 수 있어야 한다. 사업자들의 애로와 현실을 충분히 반영한 합리적이고 유연한 법제도의 도입을 기대해 본다.

2025.02.03 10:17법무법인 태평양 상지영

[기고] AI 생성 결과물의 명암

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 생성형 인공지능(AI)의 발전은 창작 과정 전반에 혁신적인 변화를 가져오고 있다. AI는 텍스트, 이미지, 음악, 영상 등 다양한 콘텐츠를 생성할 수 있는 능력을 갖추고 있으며 이러한 기술은 창작자와 기업에게 새로운 기회를 제공하고 있다. 동시에 AI가 생성한 결과물에 대한 저작권 문제는 여전히 논란의 중심에 있다. AI는 창작 활동의 유용한 도구로, 과거에는 상상조차 어려웠던 방식으로 콘텐츠 제작을 가능하게 하고 있다. 누구나 간단한 입력만으로 고품질의 텍스트나 이미지를 생성할 수 있게 되면서 창작의 문턱이 크게 낮아졌다. 이는 소규모 창작자나 비전문가들에게 큰 이점을 제공하고 문화적 다양성과 창작물의 양적 증가를 이끄는 긍정적인 영향을 미치고 있다. 일례로 소규모 게임 개발자는 오픈AI '챗GPT'를 활용해 캐릭터별로 서사를 만들고 이를 조합해 스토리 라인을 구축할 수 있다. 또 그림 AI인 '미드저니'를 활용해 고품질의 캐릭터 및 배경 이미지를 제작하거나 음악 AI인 '주크박스'를 활용해 원하는 장르와 스타일의 음원을 생성하는 등 게임 개발에 있어 비용과 시간을 절약하는 것을 생각해 볼 수 있다. 이러한 AI 기반 도구는 전문적 기술 배경이 없는 일반 사용자에게도 창작의 문턱을 낮춰 보다 다양한 창작물이 등장하는 환경을 조성하는 데 기여한다. 그럼에도 AI 생성물에 대한 저작권 문제는 복잡하다. 저작권법의 핵심은 창작으로, 이는 인간의 창의적 노력과 아이디어에서 비롯된다. 그런데 AI는 인간의 창작적 개입 없이도 결과물을 생성할 수 있으며 이러한 경우 해당 결과물이 저작권 보호의 대상이 되는지에 대한 명확한 기준이 없다. 현재 대부분의 국가에서는 인간만이 저작권의 주체가 될 수 있다고 규정하고 있다. 이에 따라 AI가 생성한 결과물은 원칙적으로 저작권 보호를 받을 수 없다. 이는 AI를 활용하는 기업이나 개인들에게 법적 공백을 초래할 수 있다. 미국에서는 AI인 '창작 머신(Creativity machine)'이 생성한 작품인 '파라다이스로 가는 입구(A Recent Entrance to Paradise)'가 저작권 등록을 거절당한 사례가 있다. AI를 저작자로 표시해 AI 소유자의 업무상 저작물로 등록하고자 한 것이었는데 인간의 창작물이 아니라는 이유로 그 등록이 거절당한 것이다. 반면 AI와 인간의 협업으로 만들어진 작품의 경우 인간이 창작에 기여한 부분에 한해 저작권이 인정되기도 한다. 만화책 '여명의 자리야(Zarya of the Dawn)' 사례에서 미국 저작권청은 인간이 작성한 텍스트와 AI로 생성된 그림의 배열 및 조정을 편집 저작물로 인정했으나 AI가 생성한 그림 자체에는 저작권을 인정하지 않았다. 중국 법원에서는 AI가 생성한 이미지를 둘러싼 소송에서 원고가 프롬프트를 통해 이미지 제작에 창의적 기여를 했음을 인정해 저작물로 판단한 사례도 있다. 이는 프롬프트 입력 등 인간의 창의적 개입이 저작권 인정 여부의 핵심 기준이 될 수 있음을 보여준다. 국내에서는 아직 생성형 AI 저작권 문제에 대한 명확한 판결은 없지만 문화체육관광부가 지난 2023년 10월 발간한 생성형 AI 저작권 안내서에서는 인간만이 저작자가 될 수 있다고 밝혔다. 이에 따르면 AI 생성물 자체는 저작물로 보호되지 않으며 인간이 창작성을 부가한 경우에만 저작권 귀속 논의가 가능하다. 창작적 기여 여부와 그 정도는 법원의 판단에 따라 결정될 것이라는 입장이다. AI 생성물에 대해 저작권과 유사한 보호를 제공하거나 새로운 법적 지위를 도입하는 방안도 검토할 필요가 있다. 특히 현대미술의 난해함을 고려할 때 AI를 활용한 인간의 창의적 기여를 평가하는 명확한 기준을 마련해야 한다. 창작자의 권리와 기술 혁신의 조화를 이루는 법적 제도를 정립하는 것이 중요하다. AI 생성물은 창작의 가능성을 확장하며 우리의 삶에 혁신을 가져오고 있다. 다만 저작권 문제를 해결하지 않고서는 이러한 기술의 잠재력을 온전히 실현하기 어렵다. 법적, 윤리적 논의를 통해 AI 시대에 걸맞은 창작과 보호의 균형을 찾아야 한다. AI가 창작의 도구로 자리 잡는 과정에서 창작자와 기술 개발자 모두의 권리를 존중하는 법적 환경을 조성하는 것이 필수적이다.

2025.01.16 15:25법무법인 태평양 정상훈

[기고] 인공지능 기본법안 그 이후

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 지난해 노벨물리학상과 화학상 모두 인공지능(AI) 관련 연구자들에게 수여되며 AI에 대한 전세계적인 관심이 다시 한번 입증됐다. 특히 노벨물리학상을 수여받은 제프리 힌턴 캐나다 교수는 인간을 뛰어넘는 AI이 나올 것이라는 점을 예측하고 이후 그 위험성에 대해 다시 한번 경고를 해 세간의 화제가 됐다. AI 시대에 접어들면서 해당 기술로 인한 위험에 대한 관심도 증가하는 새해를 맞이하고 있다. 지난 2016년 알파고 등장 이후 AI에 대한 식었던 열망은 부활했다. 지난 2022년 '챗GPT' 등장으로 AI는 이제 우리 생활에서 편하게 접할 수 있는 서비스가 됐으며 요즘은 AI라는 단어가 포함되지 않은 광고를 찾아보기 힘들 정도의 시대에 접어들었다. AI가 실제 우리 생활을 편리하게 바꿔 주는 것인지 아니면 우리 생활을 위협하는지에 대한 질문이 제기되는 상황이다. 신기술의 등장은 언제나 우리 생활에 명과 암을 줬다. 우리의 선택은 그 중에서 편리한 점을 취하면서 위험을 최대한 줄이기 위한 노력의 과정이었던 것으로 생각된다. 인터넷 도입 당시와 유사하게 AI를 통한 편리함을 느끼지만 동시에 그 폐해에 대해서도 이야기를 하는 시대에 접어들게 됐다. 인터넷을 둘러싼 많은 법률관계들이 인터넷 등장 이후 장기간에 논의됐던 것과 같이 AI를 둘러싼 다양한 법률관계들도 점진적이지만 긍정적으로 발전할 것을 기대해 본다. AI 서비스에 대한 지원과 규제라는 두 마리 토끼를 잡기 위해 지난달 26일 국회는 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(AI기본법)'을 통과시켰다. 위 기본법안에는 AI 산업 활성화를 위한 산업 장려방안, AI 안전을 담보하기 위한 AI안전연구소 신설 등도 포함을 하고 있다. 이와 함께 사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI시스템(고영향 AI)에 대한 규제 및 생성형 인공지능에 대한 규제도 모두 포함됐다. 모두 주지하는 것과 같이 AI 자체는 선과 악을 구분할 수 없는 하나의 기술이다. 그럼에도 특정 목적과 영역에 사용하기 위해 개발된 AI와 생성형 AI(범용 AI)는 인간의 생명, 신체의 안전이나 기본권에 중대한 영향을 미칠 수 있다. 이에 따라 이들을 고영향 AI로 분류해 규제체계를 마련했으며 일반적으로 이용되는 생성형 또는 범용 AI의 경우에도 설명 의무 등을 부여하게 된 것이다. 그럼에도 특정 목적이나 특정 영역에 사용되는 AI 이외의 기타 유형 AI에도 분명 위험성은 존재한다. 다시 말해 제도적으로 정비를 해야 할 사항에 대해 기본법안을 통해 어느 정도 규제체계를 정비한 상황임에도 불구하고 일상적으로 발생할 문제에 대해서는 개별 논의가 필요하다. 또 우리가 주목해야 할 점은 AI 서비스에 대한 책임은 결국 구체적인 상황에서 정해져야 하는 것이며 이를 모두 서비스 사업자에게만 국한시킬 수는 없다는 것이다. 일례로 누군가가 수의를 입고 있는 모습을 딥페이크 기술로 합성해 게시할 경우 이에 대한 책임은 누가 져야 하는지에 대한 문제가 제기될 수 있다. 일각에서는 딥페이크 영상을 만들 수 있도록 서비스를 제공한 AI서비스 사업자에게 책임을 지게 해야 한다고 말하기도 한다. 그런데 인터넷 포털에서 명예훼손적인 글을 게재하는 경우 일차적으로 책임을 져야 하는 사람은 해당 이용자다. 위와 같은 사안에서도 그 일차적인 책임은 딥페이크 기술을 이용한 이용자여야 할 것으로 보인다. 다만 AI서비스 사업자들로서는 영상합성 기술에 대해 이용자들에게 경고를 하고 딥페이크로 인해 사람들이 속지 않도록 "해당 영상은 AI서비스 또는 기술을 통해서 생성됐다"고 알리는 역할을 하면 될 것으로 보인다. AI 서비스 또는 기술을 이용한 폐단은 향후에도 다수 발생할 수 있다. 이에 따라 개별적인 문제에 있어서 누가 책임을 우선 부담하는지, 이러한 폐단을 극복하기 위해 이용자들에게 어떠한 주의의무를 부과할 것인지, 또는 개별 인공지능에서 최소한의 어떠한 안전장치를 구현하도록 할 것인지 등에 대한 고찰이 필요하다. AI의 폐단만이 아니라 AI를 통한 생활의 편리함을 고려해 다양하고 구체적인 해결방안이 모색돼야 할 시점이다.

2025.01.03 15:59법무법인(유한) 태평양 윤주호

英 '매직서클' 출신 크리스 테일러, 법무법인 태평양 합류

법무법인 태평양이 글로벌 중재 역량 강화를 위해 영국 대형 로펌 출신 국제중재 전문가를 영입했다. 법무법인 태평양은 최근 영국 런던의 5대 대형로펌인 '매직서클' 중 하나인 앨런앤오버리의 크리스 테일러 외국변호사를 영입했다고 30일 밝혔다. 테일러 외국변호사는 영국 잉글랜드·웨일즈 변호사로 25년간 국제중재 분야에서 활동한 전문가다. 테일러 변호사는 지난 12년간 앨런앤오버리에서 파트너로 활동하며 싱가포르, 파리, 두바이, 런던 등 국제중재 허브를 중심으로 경험을 쌓았다. 특히 중동에서는 활동한 로펌의 첫 국제중재 파트너로 역할을 수행했다. 그는 건설, 에너지, 인프라, M&A, 금융 등 다양한 분야의 국제분쟁 사건을 담당하며 런던국제중재법원, 국제형사재판소 등 주요 중재기관의 규범에 따른 중재 절차를 진행한 바 있다. 최근에는 아시아 지역에서 국제중재 재판소 의장으로도 활동했다. 테일러 변호사는 태평양의 싱가포르와 서울 사무소를 오가며 업무를 수행할 예정이다. 태평양 관계자는 이번 영입에 대해 "대규모 국제분쟁은 주로 영국법이 적용되는 경우가 많다"며 "크리스 테일러 변호사의 합류로 복잡한 분쟁 사건에 더욱 효과적으로 대응할 수 있게 됐다"고 밝혔다.

2024.12.30 12:36조이환

[기고] 야누스의 얼굴을 가진 인공지능

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 로마 신화에 '야누스'라는 신이 나온다. 출입문으로 드나드는 사람들을 보기 위해 앞뒤에 얼굴을 가진 출입문의 수호신으로 알려져 있다. 세상 만사의 시작을 지배하는 신이기도 해서 한해의 시작인 1월을 뜻하는 영어 단어 '제뉴어리(January)'에 그 흔적을 남기기도 했다. 다만 야누스는 앞과 뒤의 모습이 다른 두 얼굴을 가진 것으로 묘사돼 어떤 일의 양면성, 밝은 면과 어두운 면이 공존하는 것을 표현할 때도 쓰인다. 생성형 인공지능(AI) 기술이 발전하면서 상상 속에서만 가능해 보였던 일들이 현실이 되고 있다. AI 기술이 글 내용을 음성으로 읽어 주고, 음악을 만들고 이미지를 만들어 낸다. 실제로 연기하는 배우 없이 만들어낸 동영상이 크게 어색하지 않은 단계에 이르렀다. 이처럼 AI 기술이 빠른 속도로 발전하면서 AI에 대한 기대가 커지고 있다. 한편으로는 자칫 AI를 이용한 결과물로 인해 정보가 유통되는 생태계의 무결성이나 신뢰성에 영향을 미칠 수 있고, 이로 인해 잘못된 정보가 사실인 것처럼 유통되거나 소비자를 기만하는 등의 문제가 발생할 위험이 있다는 우려도 나온다. AI가 결과물을 생성해 내는 과정이 블랙박스처럼 돼 있고, AI를 통해 만들어낸 결과물이 실제 존재하는 것과 구별하기 어려울 정도라, AI를 이용해 생성하는 결과물을 법률적으로 어떻게 다룰 것인지에 대한 논의도 한창이다. 유럽연합(EU)은 AI법을 제정하며 AI 시스템이 적절한 추적과 설명이 가능한 방식으로 개발 및 사용되고, 인간이 AI 시스템과 상호작용하거나 소통하고 있다는 사실을 인지해야 한다는 '투명성 원칙'을 밝혔다. EU AI법은 이런 원칙에 따라 AI 시스템 제공자가 사람이 아닌 AI 시스템에 의해 결과물이 생성됐음을 감지할 수 있는 기술적 솔루션을 시스템에 내장하도록 했다. 이러한 기술적 솔루션에 더해 AI 기술로 만든 결과물이 기존의 인물, 장소 또는 사건과 현저히 유사해 보는 사람으로 하여금 실제 사실인 것처럼 잘못 인식하게 하는 딥페이크에 대해서는 해당 콘텐츠가 AI에 의해 생성된 것이라는 점을 배포자로 하여금 표시하도록 했다. 우리나라도 'AI 기술 등으로 만든 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등'을 '딥페이크 영상 등'이라 정의했다. 선거일 전 90일부터 선거일까지 선거운동을 위해 딥페이크 영상 등을 제작, 편집, 유포, 상영 또는 게시하는 행위를 하지 못하도록 선거법을 개정했다. 선거운동 기간이 아닌 때도 선거운동을 위해 딥페이크 영상 등을 제작, 편집, 유포, 상영 또는 게시할 때 선관위 규칙으로 정하는 바에 따라 AI 기술 등으로 만든 가상의 정보라는 사실을 명확하게 인식할 수 있도록 표시하게 했다. 선거운동의 자유를 최대한 보장하면서도 선거의 공정성을 확보하기 위해 AI 기술 등을 이용해 만든 콘텐츠라는 사실을 누구나 쉽게 알아 볼 수 있도록 표시할 의무를 둔 것이다. 최근 국회 소관 상임위를 통과한 AI기본법 제정안도 AI사업자가 생성형 AI 또는 이를 이용한 제품 또는 서비스를 제공하는 경우 그 결과물이 생성형 AI에 의해 생성됐다는 사실을 표시하도록 정했다. 또 AI시스템으로 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등의 결과물을 제공하는 경우 해당 결과물이 AI시스템에 의해 생성됐다는 사실을 이용자가 명확하게 인식할 수 있는 방식으로 고지 또는 표시하도록 했다. 다만 AI로 만든 모든 콘텐츠에 'AI를 이용해 생성한 결과물'이라는 표시를 할 필요가 있을지는 의문이다. 선거 등 정보의 출처가 중요한 경우, 또 개인의 인격권 침해가 될 수 있는 경우에는 그 콘텐츠가 AI에 의해 생성된 것인지를 표시할 필요가 있다. 그러나 이러한 경우가 아닌 모든 경우에 표시가 필요할지, 표시를 한다면 어떠한 방식으로 할 것인지, 동영상, 이미지, 텍스트 등 각 콘텐츠의 특징을 고려해 콘텐츠 자체를 향유하는데 방해가 되지 않는 방식이 무엇일지 등 여러 가지 논의가 필요해 보인다. 로마인들은 야누스의 얼굴 중 한쪽은 과거를, 다른 한쪽은 미래를 본다고 생각했다고 한다. 야누스를 세상일의 복잡한 측면, 과거와 미래를 함께 보며 균형을 잡아주는 수호신으로 생각했던 것 같다. AI이 가진 두 얼굴도 균형을 이룰 수 있도록 제정되는 법률이 야누스의 역할을 하기를 기대한다.

2024.12.23 17:23유재규

[기고] AI 발전과 아동·청소년 보호

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)의 비약적인 발전은 우리의 일상생활에 깊숙이 스며들며 효율성과 편리함을 극대화하고 있다. 개인화된 추천 시스템부터 의료, 교육, 공공서비스에 이르기까지 우리가 직면한 많은 문제를 해결하는 데 기여하고 있다. 그럼에도 눈부신 기술발전의 이면에 존재하는 부작용을 간과할 수 없다. 특히 AI 기술발전이 아동·청소년처럼 기술적 맥락에 취약한 집단에 대해 미칠 영향에 대한 진지한 고민이 필요하다. 오늘날 소셜 네트워크 서비스(SNS)는 단순한 소통의 매개체를 뛰어넘어 거대한 상업적 플랫폼이 됐다. 주요 SNS 기업들은 사용자의 이용패턴, 관심사 등을 분석해 AI 알고리즘에 학습시켜 광고를 포함한 콘텐츠를 추천하는 서비스를 주 수익모델로 삼고 있다. 그런데 이러한 과정에서 대규모의 개인정보 및 데이터 수집과 분석이 이루어지기 때문에 프라이버시와 개인정보 침해 우려가 상존한다. 특히 아동·청소년의 의사결정과 정서에 부정적 영향을 미칠 가능성이 높다. 아동·청소년은 자신이 보는 콘텐츠와 광고가 어떤 의도로 설계되었는지 이해하기 어렵고 이는 무절제한 소비, 유해하거나 부적절한 콘텐츠에 대한 노출, 정체성 혼란과 같은 부작용으로 이어질 수 있기 때문이다. 세계 여러 나라에서는 이같은 문제의식을 기반으로 디지털 환경에서 아동·청소년을 보호하기 위한 방안을 모색하고 있다. 최근 호주가 세계 최초로 16세 미만 미성년자의 SNS 이용을 전면 금지하고 이를 위반한 업체에게 최대 450억원의 벌금을 부과하기로 하는 강력한 법안을 통과시켜 화제가 됐다. 호주는 지난 2022년 1월부터 시행된 '온라인 안전법 2021(Online Safety Act 2021)'에서 '아동을 대상으로 하는 사이버 폭력 자료'를 규정하고 서비스제공자에게 관련 자료를 최소화하기 위한 조치의무를 부과하고 있다. 영국에서는 지난 2017년 몰리 러셀이라는 14세 아동의 자살로 아동에 대한 SNS의 책임에 관한 논의가 촉발된 바 있다. 약 6년간의 논의 끝에 지난 2023년 10월 '온라인 안전법 2023(Online Safety Act 2023)'이 제정 및 공표됐다. 이 법에서는 아동성착취∙성학대 등 범죄에 해당하는 불법콘텐츠와 자살이나 자해, 혐오나 사이버괴롭힘, 그밖에 심각한 위해를 초래할 가능성이 있는 유해콘텐츠를 규정하고 서비스제공자가 불법∙유해콘텐츠를 발견하면 신속히 삭제 또는 차단하도록 했다. 미국 상원은 지난 7월 30일 '아동 온라인 안전법안(KOSA)'과 '어린이 및 10대 온라인 프라이버시 보호법 개정안(COPPA 2.0)'을 묶은 입법 패키지(KOSPA)를 의결했다. 'KOSPA'는 아직 하원 통과를 남겨두고 있지만 미국에서 지난 1998년 제정된 'COPPA' 이후 수십년 만에 연방 차원에서 온라인 아동보호를 위한 주요 법안의 제정을 추진한 것이라는 점에서 의미가 있다. 'KOSA'는 17세 미만 미성년자가 사용할 가능성이 큰 온라인 플랫폼에 대해 ▼정신건강 장애 ▼중독 ▼정신적·신체적 폭력 및 괴롭힘 ▼불법 약물 관련 홍보 및 마케팅 ▼성적 착취 및 학대 ▼약탈적 및 기만적 마케팅 또는 금전적 피해 등 미성년자에게 발생할 수 있는 특정 유해 요소들을 완화하기 위한 조치를 취했다. 합리적인 조치를 취해야 한다는 '주의의무(duty of care)'를 부과하면서 서비스제공자의 관리책임을 콘텐츠 자체가 아니라 서비스의 설계를 중심으로 구성했다는 것이 특징이다. 'COPPA 2.0'은 지난 1998년 제정된 'COPPA'의 개정안으로, 법 적용을 받는 미성년자의 최소연령을 13세에서 16세로 상향해 17세 미만 사용자의 개인정보를 동의없이 수집할 수 없도록 규정하고 아동·청소년을 대상으로 한 맞춤형 광고를 금지하며 '지우기 버튼(Eraser Button)'을 도입해 아동·청소년이 본인의 개인정보를 삭제할 수 있는 기능 제공을 의무화했다. 또 현행법의 '실제 인지(actual knowledge)' 기준을 수정해 플랫폼이 사용자가 미성년자임을 몰랐다는 주장을 할 수 없도록 했다. 국내 법상 디지털 환경에서 아동·청소년을 보호하기 위한 별도의 법령이 존재하지는 않는다. 다만 개인정보보호법상 만 14세 미만 아동의 개인정보처리를 위해서는 법정대리인의 동의를 받도록 하는 규정(제22조의 2), 아동·청소년의 개인정보 처리자를 위한 가이드라인(개인정보보호위원회, 2022. 7. 22.), 만 14세 미만 아동에게 맞춤형 광고를 제공하려면 법정대리인의 동의를 받도록 하는 조치(개인정보보호위원회, 맞춤형 광고에 활용되는 온라인 행태정보 보호를 위한 정책방안, 2024. 1.)들을 마련해 나가고 있는 것으로 보인다. 아동·청소년의 취약성 및 보호필요성을 고려하면 이들에게 AI에 기반한 서비스를 제공하는 사업자에게 상대적으로 많은 책임을 부여할 수밖에 없게 된다. 해외의 규제 흐름도 전반적으로 그러한 방향인 것으로 보인다. 그럼에도 이에 대해서는 표현의 자유 침해, 콘텐츠 검열 가능성 등 위헌적 요소가 존재한다는 비판이 대립하고 있어 지속적인 논의와 연구가 필요하다. 더 나아가 아동·청소년의 권리를 보호하는 규제를 설계하기 위해서는 현대 사회의 디지털 환경이 아동·청소년의 발달에 필수적인 조건이며 알권리와 참여권 실현에 긍정적 역할을 할 수 있다는 점, 아동·청소년 이용자가 단지 피해자에 머무는 것이 아니라 쉽게 가해자의 지위에 놓일 수 있다는 점까지 종합해 섬세한 접근이 필요할 것이다.

2024.12.08 13:09법무법인 태평양 노은영

[기고] AI 시대의 담합 규제, 알고리즘 담합

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 알고리즘(Algorithm)은 특정 값을 입력하면 정해진 작업 목록에 따라 값을 산출하는 기계·체계적 구조로, 전산 처리의 기본적인 구성 요소로 활용된다. 알고리즘은 주로 머신러닝과 인공지능(AI) 기술을 기반으로 발전하고 있으며 시장의 다양한 분야에서 사용되고 있다. 담합의 '독점규제 및 공정거래에 관한 법률(공정거래법)' 상 정확한 명칭은 '부당한 공동행위'로, 담합이 성립할 수 있는 유형은 공정거래법 제40조 제1항에 따라 매우 다양하다. 담합은 복수의 사업자 간의 '합의(의사의 합치)'를 요건으로 한다. 합의는 계약, 협정, 협약, 결의와 같은 '명시적 합의' 뿐만 아니라 암묵적 양해와 같은 '묵시적 합의'도 포함한다. 이와 함께 지난 2021년부터 시행된 전면 개정 공정거래법에서는 제40조 제1항 제9호에 따라 '정보교환'을 통한 담합 행위를 신설해 금지하고 있다. 이는 사업자 간의 정보교환이 경쟁을 제한하는 수단으로 활용될 수 있다는 우려에서 비롯됐으며 가격, 생산량 등 민감한 정보를 교환함으로써 묵시적 담합이 이루어질 가능성이 높아짐에 따라 이를 명확히 규제하기 위한 목적이다. 알고리즘의 발전은 경쟁법에서 새로운 논점을 제기하고 있으며 그 중에서도 알고리즘 담합은 뜨거운 감자다. 일반적으로 알고리즘의 사용은 시장의 투명성을 높이고 사업자 간 경쟁을 촉진하는 긍정적인 효과를 가져온다. 우리가 흔히 사용하는 가격 비교 서비스가 그 대표적인 예다. 그럼에도 알고리즘이 주요 거래정보를 분석해 사업자 간 예측 가능성을 높이는 경우 묵시적 담합이 이뤄지는 환경을 제공할 수 있다. 전문가들이 알고리즘 담합에 주목하기 시작한 것은 구글, 아마존과 같은 대형 플랫폼과 우버, 에어비앤비와 같은 공유 경제 기업이 비약적으로 성장한 지난 2010년대 중반부터다. 이 중 '마이어 대 우버(Meyer v. Uber Technologies, Inc.)' 소송이 가장 유명한데 이는 개인 원고인 스펜서 마이어가 우버의 가격 책정 알고리즘이 운전자들 간의 가격 담합을 조장한다고 주장하며 제기한 민사 소송이다. 해당 소송은 우버가 제기한 중재 합의 주장이 받아들여져 법원의 본안 판단 없이 중재로 마무리됐지만 새로운 경쟁법적 과제에 대한 중요한 논의를 촉발시키는 계기가 됐다. 이같은 우려 속에서 각국 경쟁 당국은 알고리즘 담합에 대응하기 위해 적극적인 조사 및 규제 움직임을 보이고 있다. 최근 미국에서는 개인 원고들이 애틀랜틱 시티와 라스베이거스의 호텔들을 대상으로 호텔들이 센딘(Cendyn)의 '레인메이커(Rainmaker)' 소프트웨어를 통해 실시간 가격과 점유율 데이터를 공유하며 가격을 담합했다고 주장하며 소송을 제기했다. 이에 미국 법무부와 연방거래위원회는 해당 소송에서 의견서를 제출하면서 경쟁사들이 공통의 알고리즘을 사용해 가격을 설정하는 행위가 명시적 합의 없이도 담합으로 간주될 수 있다고 평가했다. 또 알고리즘을 통한 가격 설정이 경쟁 제한적 효과를 가져올 수 있고 이러한 행위가 반독점법 위반에 해당할 수 있다는 점을 강조했다. 그럼에도 두 소송 모두 원고가 가격 담합을 입증할 충분한 증거를 제시하지 못했다는 이유로 기각됐다. 법원은 해당 알고리즘을 통해 경쟁사들의 기밀 내지는 비공개 정보가 교환되지 않았고 알고리즘은 단지 가격을 추천 내지 권장할 뿐이지 각 호텔들이 알고리즘의 가격 추천에 구속되지 않았다는 점을 주요 판단 근거로 삼았다. 이에 비추어 볼 때 알고리즘을 통해 사업자간 기밀 정보가 교환될 경우 담합이 성립할 가능성이 높으며 알고리즘의 가격 추천에 대한 구속력이 없다고 보여질 경우 담합으로 인정되기 어려울 것으로 생각된다. 국내 법원도 묵시적 담합의 인정과 관련해 신중한 태도를 보여왔으며 정보교환만으로는 합의가 추정되지 않고 사업자간 묵시적 합의를 인정할 정도의 의사연결의 상호성이 존재해야 한다는 입장을 취해 왔다. 그런데 알고리즘 담합은 알고리즘이 자동적으로 정보를 저장하고 거래에 반영하는 구조이기 때문에 단순한 정보교환을 넘어서 묵시적 합의를 구성하기 어려운 장애물이 다수 존재한다. 이 같은 상황에서 공정거래법은 정보교환을 부당한 공동행위의 유형으로 포함시켰다. 이에 따라 알고리즘과 관련해 사업자 간 담합으로 볼 수 있는 외형상 일치와 정보교환이 존재할 경우 이를 담합으로 규제할 수 있는 근거 규정을 보완했다. 알고리즘이 경쟁 제한 효과를 초래할 가능성이 높아짐에 따라 알고리즘 담합에 대한 규제는 향후 디지털 경제에서 공정성과 혁신을 조화롭게 유지하기 위한 필수적인 과제가 될 것으로 예상된다. 기술의 발전과 법적 규제 간의 괴리를 줄이기 위해서는 알고리즘 담합과 관련한 보다 세분화된 판단 기준과 지침이 필요할 것으로 생각된다. 이전까지는 각국 경쟁 당국의 조사 추이 및 최종 판단을 유의 깊게 지켜봐야 할 것이다.

2024.11.22 11:11법무법인(유한)태평양 변채영

오픈AI 'o1'로 AGI 시대 성큼…"정부·기업, 개발 투명성 고려 필수"

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개하면서 일반인공지능(AGI) 시대를 향해 한 걸음 더 나아갔다는 평가를 받는다. 이달 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 o1 프리퓨 버전과 미니 버전을 블로그를 통해 공개했다. 이 모델 시리즈는 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제를 해결할 수 있다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. AI 업계가 고도화된 기술을 쏟아내고 있는 만큼 중요하게 부각되는 부분도 생겼다. 바로 AI 규제다. 현재 미국은 캘리포니아 AI 안전법을 통과시켜 개발 투명성과 안전성 부각에 나섰다. 유럽연합(EU)은 물론이고 캐나다와 영국, 일본도 마찬가지다. 이에 발맞춰 국내서도 최소한의 투명성 관련 규제가 필요하다는 의견이 나오고 있다. AGI 시대로 다가갈수록 AI 기반 솔루션과 결과물이 예측 불가하다는 이유에서다. 법무법인 태평양 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 고도화된 AI 시스템이 산업계에 안착하기 위해 필요한 법안에 대해 이야기 나눴다. 생성형 AI와 관련한 딥페이크, 저작권 문제, 근로 환경 등 이슈에 대한 의견도 공유했다. 법무법인 태평양은 AI팀 활동을 올해 초 본격화했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. Q. 지난주 오픈AI가 사람처럼 추론할 수 있는 고급 모델을 내놨다. 산업계가 AI 시스템 고도화를 신속히 진행하고 있다. 이럴수록 AI 규제 필요성이 더 높아지지 않을까. 윤: 그동안 기업이 AI 시스템 고도화를 위한 기술을 꾸준히 내놨다. 앞으로 기존 개발 틀을 벗어나진 않을 것 같다. 다만 고도화된 AI 시스템으로 무엇을 만들지 아무도 예측할 수 없다. 결국 AGI 등 고도화된 AI 시스템이 산업에 안착하려면 최소한 규제는 필요할 것이다. 이중 개발 투명성이 가장 중요하다. 정부가 개발자나 AI를 사용하는 기업에 데이터 사용 방식이나 모델 알고리즘에 대해 질문을 요구할 수 있는 규제가 필요하다. 다만 AI 산업이 어느 정도 성장한 단계에서 해당 규제를 추진해야 할 것이다. Q. 기업이 정부에게 AI 기술을 의무로 공개하는 법 정도로 이해하면 되는 건가. 조금 더 구체적으로 설명해 달라. 윤: AGI는 지금보다 훨씬 더 고도화된 AI 시스템이다. 그동안 전문가들은 AI 모델에서 파생되는 새 기술을 예측할 수 있었다. 반면 고도화된 AI 시스템이 출현하면, 예측할 수 없다. 기술 불확실성이 커진다는 의미다. 정부는 AI의 불확실성과 그로 인한 잠재적 위험을 관리하기 위한 최소한의 조치 정도로만 규제를 설정하면 된다. 개발자나 기업이 AGI로 특정 결정을 내릴 때 그 결정 과정이나 근거를 정부에 설명하거나 공개할 수 있는 체계다. 정부는 향후 이런 법안을 입법에 넣어야 한다. 이보다 더 강력한 규제는 삼가야 한다. 오히려 기술 중립성을 해칠 수 있다. Q. 현재 국내에선 현존 AI 기술로 인한 이슈가 많다. 딥페이크가 대표적이다. 정부가 딥페이크 피해 방지를 위해 여러 법안 제정을 추진 중이다. 충분히 피해를 최소화할 수 있을 것으로 보는가. 강: 방송통신위원회가 제정을 추진 중인 이용자보호법에는 딥페이크 피해 방지를 위해 AI로 생성된 콘텐츠에 AI 생성물 표시를 의무화하는 법 등을 도입할 것으로 보인다. 그러나 표시 의무 규정 법안만으로 문제를 완벽히 해결할 수 없다. 딥페이크 영상물에 AI 생성물 표시 의무를 부과하면, 일차적으로 허위 정보 확산을 방지하고 제작자·유포자에게 책임은 물을 순 있다. 그러나 딥페이크 제작자나 유포자의 거짓 고지 가능성이 있다. 이용자보호법이 문제 해결에 실효성있게 작동하려면 정부는 지금보다 디테일한 집쟁 정책을 운영해야 한다. Q. 최근 미국 캘리포니아주가 AI 안전법 'SB 1047'을 통과시켰다. 거대 AI 모델에 대한 강력한 규제를 담고 있는 법안이다. 일각에선 SB 1047이 책임소재와 범위가 과도하다는 지적이 나오고 있다. 이를 어떻게 평가하는지. 강: 해당 법안에는 AI로 인한 핵심 피해 방지를 위한 안전 평가 관련 내용과 AI 모델 개발자들에 대한 독립적 제3기관에 의한 감사, 보고의무, 학습을 포함한 AI 모델 기능을 중단시키는 전제 중단 기능 구현, 공공 안전 위협에 대한 징벌적 손해배상 등 내용을 담고 있다. AI가 가져올 위험을 통제할 수 있는 장치가 필요하다는 점에 대해서는 공감한다. 다만 이런 강력한 규제는 이미 기술·산업적으로 최정점에 서 있는 국가에서나 효율적일 수 있다고 본다. 오히려 시장에 진입하고자 하는 해외 경쟁업체들에 진입장벽으로 기능할 수도 있다. Q. 해당 법이 최종 승인되면 다른 나라 AI법에도 영향 미칠 전망이다. 국내 정부도 SB 1047과 노선을 같이할 수 있는 법안을 마련할 것으로 보는가. 강: 현재 과학기술정보통신부에서 제정을 추진하고 있는 AI 기본법은 AI 산업 진흥에 관한 법률이다. AI 시스템 규제에 초점을 맞추고 있는 법은 아니다. SB 1047처럼 AI 안전 평가, 제3자에 의한 감사·보고 의무 같은 강력한 규제 사항들이 포함되지 않을 가능성이 있다. 정부가 AI 관련 제도를 마련하는 과정에서 EU나 미국 등의 AI 관련 규제 정책 사례를 참고할 수는 있다. 다만 국내 AI 산업은 아직 성장단계에 있다. 과도한 규제가 가해질 경우 산업 자체가 위축될 수 있다는 점 고려해야 한다. 이후 고도화된 AI 시스템 대비를 위해 개발 투명성 등 적절한 규제를 추가하면 된다. Q. 저작권 이슈도 생성형 AI 산업서 많이 거론되는 주제다. 기업 노력만으로 해결할 수 있는 문제가 아니라는 평가가 이어지고 있다. 윤: 그렇다. 그동안 학습용 데이터를 무료로 이용하는 행위에 관대한 분위기였다. 챗GPT 출현 후 저작권 이슈가 나오고, 지난해 하반기부터 소송이 이어지면서 분위기가 달라졌다. 데이터 활용이 유료로 전환될 필요가 있다는 목소리가 나와서다. 이미 데이터 학습을 AI 모델에 충분히 진행한 업체나 대기업은 이에 동의하는 입장이다. 저작권 이슈는 생성형 AI 산업계와 저작권 관련 업계가 공감대를 형성해야 한다고 본다. 이는 법 마련보다 더 시급한 과제다. 지난해 저작권위원회와 문화체육관광부가 생성형 AI 저작권법 제정에 나선 바 있다. 안타깝게도 결과가 잘 안 나왔다. 당시 양측 공감대가 없었기 때문이라고 본다. 지난해 국회도 저작권법 논의 때 해결 주제를 이야기하긴 했다. 아직 마침표를 찍지 못했다. 정부가 나서서 속도감 있게 생성형 AI 산업계와 저작권 관계자 등으로부터 의견을 충분히 모으는 역할을 해야 할 것 같다. Q. 생성형 AI가 산업에 도입되면 근로 환경도 변할 것이란 전망이 나오고 있다. 기업이 직원을 AI로 대체하는 과정에서 법률적 문제를 겪을 것으로 보인다. 윤: 단정 짓기 어려운 문제다. 국내에 AI와 근로법이 충돌한 사례가 아직 없기도 하다. 다만 기업이 신규 채용을 줄이는 방식을 가장 합리적인 선택으로 볼 것 같다. 이 부분에서도 정부 역할은 필요하다. 기업이 신규 채용을 너무 줄이면 정부가 정책을 통해 관리를 해야 한다. 기업과 근로자 공감대 형성도 도와야 할 것이다. Q. 이슈를 종합해 볼 때 앞으로 AI 윤리 중요성이 높아질 것 같다. 최근 기업들이 사내에 AI 윤리위원회를 설치해 AI 개발·활용에 지켜야 할 수칙을 정하는 추세다. 올바른 방향으로 가고 있다고 보는가. 강: 최근 대기업 중심으로 AI 거버넌스를 추진 중인 걸로 알고 있다. AI를 개발·활용할 때 지켜야 하는 원칙 틀을 만드는 추세다. 이런 원칙은 국내에서 한 10개쯤 나와 있다. 문제는 원칙에 디테일이 부족하다는 점이다. 사실 이런 건 법률가들이 잘할 수 있는 업무다. 현재 법률 지식과 기업 사정에 가장 알맞은 디테일을 만들어야 해서다. 그렇지 않으면 거버넌스를 만들어도 AI 이용·개발에 충분히 적용할 수 없을 것이다. Q. 국내 기업이 AI 윤리위원회 설치를 활성화하려면 무엇이 필요한가. 강: 모든 기업이 AI 윤리위원회 필요성을 알고 있다. 다만 위원회만 만들고 끝나는 게 아니라, 실제 회사 내에서 높은 수준의 중요성을 가져야 한다. 이사회 의장 또는 최고경영자가 이를 정말 중요하게 생각해야 한다. 이들이 위원회를 지지해야 결정권도 가질 수 있어서다.

2024.09.18 13:19김미정

"국내 첫 AI팀 꾸려"…태평양이 내다본 한국 AI법 방향은?

유럽연합(EU)이 생성형 인공지능(AI)법 추진을 본격화하면서 전 세계가 분주하다. 미국을 비롯한 캐나다, 영국, 일본 등 각국 정부는 AI 거버넌스 구축을 위해 연구소를 설립하고 대규모 투자를 하는 등 자국 AI법 마련에 나섰다. 한국도 마찬가지다. 정부가 AI안전연구소를 설립하고, 새로 출범한 22대 국회도 AI법 제정에 속도를 내고 있다. 당장 AI법에 영향 받을 대상은 기업이다. AI 기술이나 솔루션 출시를 위해 개인정보법, 데이터법 등 민감한 AI 규정을 세세하게 지켜야 하기 때문이다. 기업들은 원활한 AI 사업과 해외 시장 진출을 위해 AI법에 높은 관심을 기울일 수밖에 없다. 법무법인 태평양은 이런 상황을 4년 전부터 예측·준비해 왔다. 그동안 태스크포스(TF)형태로 운영됐던 AI팀은 올해 초 활동을 본격화 했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. 태평양 AI팀장 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 태평양 AI전담팀 특장점을 비롯한 인력 구성 등을 소개했다. 미국·EU AI법에 대한 평가와 향후 한국 AI법이 나아가야 할 방향성에 대해 자세히 들어봤다. Q. 태평양이 국내 첫 AI전담팀을 꾸렸다고 들었다. 이에 대한 배경은. 강: AI팀을 구축한 결정적 계기는 2017년 '이루다' 사건 변호 직후다. 국내에서 AI와 개인정보 보호법을 동시에 다룬 첫 사례다. 변호인단은 재판 뒤 6개월 동안 이루다 관계자들과 개인정보 보호법 위반 사항을 수정하고 데이터 정비를 도왔다. 당시 태평양은 AI와 데이터 처리, 개인정보 이슈 자문 수요가 늘 것으로 추측했다. 예상이 맞았다. 현재 기업들은 태평양의 이루다 데이터 정비 사례를 필수 참고하기 때문이다. 이후 금융권 AI 거버넌스 구축을 도왔다. 농협 사례가 대표적이다. 금융권 AI 컴플라이언스 리뷰 업무까지 맡았다. 산업이 생성형 AI를 구축할 때 법률 리스크 판단을 필요로하다 보니 관련 프로젝트가 꾸준히 들어오는 것 같다. Q. 태평양 AI팀 인재를 새로 영입했는지. 강: 외부에서 AI전문변호사를 영입하진 않았다. 내부 변호사들이 팀을 꾸렸다. 역량이 충분했기 때문이다. 태평양에 항공이나 전자 등 공대 출신 변호사가 많다. 일부 전문위원도 데이터 분야 업무를 수십 년 했다. Q. 현재 국내 로펌들이 AI팀을 꾸리기 시작했다. 팀 필수 역량을 무엇으로 보는지. 윤: 해외 AI법 동향을 잘 파악하는 게 관건이다. 국내 기업이 미국이나 유럽 등에 서비스를 원활히 제공할 수 있게 도와줘야 해서다. 한국에 도입될 가능성 높은 해외 AI규제를 먼저 알아야 한다. 국내 로펌이 해외 로펌들과 활발한 소통을 유지해야 하는 이유다. 태평양은 해외 로펌과 지속적인 컨퍼런스 콜을 통해 AI 정보를 꾸준히 교류하고 있다. 이런 네트워킹을 통해 해외 AI법 동향을 빠르게 수집하고, 한국화하는 데 힘쓰고 있다. 미국·유럽 로펌 세 곳과 정보 공유를 가장 자주 한다. Q. EU AI법과 달리 미국식 AI법은 상대적으로 자율적일 것이란 평가가 나오고 있다. 윤: 미국식 AI법도 EU AI법처럼 규제를 조만간 할 것 같다. 차기 정권이 AI법을 아예 자율 규제로 끌고 갈지, 아니면 기업들에게 가이드를 주고 자율적으로 이를 지키도록 할 건지가 관건이다. 향후 미국식 법은 이 둘 중 하나로 갈 것이다. Q. 미국 대선 결과가 미국 AI법 방향성을 결정할까. 윤: 아직 정해진 바 없다. 모두 아는 것처럼 카멀라 해리스 민주당 대통령 후보는 도널드 트럼프 공화당 후보보다 엄격한 AI법 방향성을 제시할 수도 있다. 트럼프 후보는 현재 바이든 행정부가 추진하는 AI 규제조차 빼자고 주장한다. 이에 미국 빅테크도 트럼프 정부 시절이 지금보다 더 좋았다는 분위기다. 해리스 후보가 당선되면 현재 구조를 유지할 것 같고, 트럼프 후보가 대통령이 되면 AI법이 통상무역 형태로 갈 것 같다. Q. 그런 분위기가 한국에 영향 미칠까. 강: 확실한 건 한국이 AI 개발 인프라를 미국서 갖고 올 때 지금보다 높은 비용을 지불할 수 있다. 이 전제에서 국회의원들은 국내 AI 산업 육성과 자립적인 기술 개발 필요성을 주장할 것이다. 특히 네이버 등 국내 대기업들이 엔비디아 AI칩 구매를 원활히 할 수 있도록 지원해야 한다고 목소리를 높일 것이다. 물론 자유 무역 체계에 따라 기술을 거래하는 건 상관없다. 그러나 AI 기술은 다르다. 단순히 통상적 방식으로만 이뤄질 문제가 아니라서다. 정부는 소버린AI 등을 간과하고 단순히 자유무역 체계에 따라 AI 무역 업무를 처리하면 안 된다. AI 기술 출처나 국가적 배경에 따라 복합적 문제가 발생할 수 있기 때문이다. 한국이 해외와 AI 무역할 때 각국 기술적, 정치적 배경을 고려한 기준을 마련해야 한다. Q. 22대 국회가 AI법을 논의하고 있다. 기본법 틀을 어떻게 만드는 것이 좋을까. 윤: 미국·EU AI법을 무조건 참고하는 것보다 한국적 상황에 맞는 AI 산업 진흥법을 갖춰야 한다. 특히 국내에 AI 보안 문제가 늘고 있다. 정부가 이 문제를 해결하지 않으면 AI 산업은 성장하지 못한다. 이를 위한 위원회를 설치하는 등 국내에 맞는 방향성이 필요하다. 물론 규제도 필수다. 지금 만들지 않으면 안 된다. 향후 EU가 자국 규제법을 따르라고 강제할 것이기 때문이다. 일단 규제 체계를 큰 틀로 만드는 게 급선무다. 규제 범위를 어떻게 정할 것인지, 강도를 어느 정도 설정할 것인지 등은 이후 조정하면 된다. 강: 최종적으로 국내 AI법이 어떤 모습일지 아무도 장담할 수 없다. 행정안전부와 과학기술정보통신부가 AI법에 대해 생각하는 것이 다르고 국회 시각도 이와 다르기 때문이다. 행안부는 강한 AI규제법을 주장하지만 과기정통부는 이를 좀 풀어주자는 의견이 지배적이라서다. Q. 이번 국회는 위험한AI와 금지된AI를 어떻게 정할지도 논의 중이다. 이에 대한 입장은. 윤: 이런 규정은 EU AI에서 왔다. 사실상 한국 정서에 맞지 않는 규정 방식이다. 물론 고위험AI는 존재할 수 있다. 관건은 한국 기업이 고위험AI로 만든 서비스를 제공한 적 있느냐는 것이다. 아직 없다. EU는 법을 이론적으로 접근하고 있다. 그래서 이런 법은 국내서 문제 될 수 있다. 실제 인간 생존과 직결되는 건 당연히 고위험AI로 지정돼야 한다. 이론상 고위험AI 논의가 필요하면 진행 가능하다. 그런데 현실에서 이 부분은 더 논의돼야 한다. Q. 현재 EU도 이 부분에 대해 골치 아플 것 같다. 윤: 그렇다. 지금 EU도 고위험AI 기준을 완전히 마련하지 못했다. EU는 제3자 적정성 평가를 통해 AI를 고위험으로 분류할 방침이다. 문제는 아직 평가 기준조차 없다. EU는 2026년 8월부터 고위험AI에 대한 리스크 세부사항을 내놔야 한다. 딱 2년 남았다. 타임라인에 맞춰 완전한 평가 기준을 만들려면 지금 시작해도 빠듯하다. 강: 결국 AI 규제는 분명히 필요하다. 다만 구체적으로 어느 AI 시스템을 얼마나 규제할 것인지에 대한 문제는 다르다. 이런 정도는 국가·사례마다 다를 것 같다. 큰 틀로 규제를 서둘러 마련하고, 세부적으로 지정할 것과 추가 판단할 것을 정해야 한다. Q. EU AI법이 전 세계에 본격적으로 영향 미치면 국내 시장은 어떻게 변할까. 윤: 국내 시장은 두 가지 특징을 보일 것 같다. 우선 EU AI법에 맞춰 유럽형 서비스를 제공하려는 국내 AI 기업이 생길 것이다. 이는 로펌뿐 아니라 다수 전문가가 예측하는 AI 시장 모습이다. 특히 국내 대기업이 AI규제 기준을 주도할 것으로 본다. 다만 한국 AI법만 기준으로 설정하지 않을 것이다.국내 기업들은 정부가 해외 규제를 따를 가능성을 높이 보기 때문이다. 이에 대기업은 미국·EU AI법이 국내에 들어오는 정도, 범위 등을 판단할 것이다. 이를 자문하는 로펌 역할이 더 중요해질 전망이다.

2024.08.19 17:52김미정

[기고] EU AI법 시행과 AI규제 방향

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 2013년작 영화 '그녀(Her)'에서 인공지능(AI) 서비스 사만다가 등장한다. 사만다는 이용자 맞춤형 소프트웨어(SW)인데 인간과 자연스러운 대화를 할 뿐만 아니라 대량 정보를 처리하면서 스스로 학습하고 인간과 교감을 하는 것처럼 보이는 단계까지 진화하는 모습을 보여준다. 이 영화는 AI 서비스가 등장한다면 어떤 모습일지를 풍부한 상상력으로 구현했다. 그 후 10년도 채 지나지 않아 챗GPT가 등장해 현실에서도 인간과 유사한 지능을 구현한 AI인 범용인공지능(AGI) 서비스가 상용화되는 날이 머지않아 올 것이란 기대를 갖게 됐다. 기술발전이 빠르게 진행되면서 AI기술과 그에 기반한 새로운 서비스를 어떻게 규제 영역으로 포섭하는 것이 좋을지에 대한 논의도 활발하게 진행되고 있다. 유럽연합(EU)은 2018년 일반 개인정보 보호법인 GDPR(General Data Protection Act)를 제정했다. 당시 개인정보 규제에 있어 전세계적인 영향력을 발휘함으로써 소위 브뤼셀 효과(Brussel effect)라는 신조어를 낳았다. 이처럼 AI 규제 분야에서도 선도적인 역할을 하고 있다. 그 결과 올해 8월 1일 AI에 관한 전세계 최초의 포괄적인 규제법인 EU AI법이 발효됐다. EU AI법은 부정적 영향을 줄 위험이 높을수록 더 엄격한 규제가 적용되게 구성됐는데 특정 제품이나 분야에서 AI 기술을 활용할 때 발생할 수 있는 위험 정도에 따라 허용할 수 없는 위험, 고위험, 제한된 위험 및 최소한의 위험으로 구분해 차등적으로 규제하고 있다. EU AI법 전문 제1조는 이 법의 목적으로 '인간 중심적이고 신뢰할 수 있는 AI의 활용을 촉진하고, EU내 AI 시스템의 유해한 영향으로부터 민주주의, 법령 및 환경 보호 등 EU 기본권 헌장에 명시된 건강, 안전 및 기본권을 높은 수준으로 보호'하는 것을 포함하고 있다. AI 시스템은 어디까지나 인간을 돕기 위한 것이어야 함을 전제하고 있고 자연히 인간의 기본적 권리를 침해할 가능성이 있는 AI 기술 활용은 금지된다. 이 법에서 명시하고 있는 금지된 AI 서비스로는 행동을 왜곡하고 정보에 입각한 의사결정을 방해해 심각한 피해를 입히는 잠재의식, 조작 또는 기만적 기술을 배포하는 경우, 직장 및 교육 기관에서 개인의 감정을 추론하는 경우, 인종, 종교적 신념, 성적 지향 등과 같은 보호되는 특성에 따라 개인을 분류하는 생체 인식 분류 시스템으로서의 AI 시스템, 인터넷이나 CCTV 영상에서 얼굴 이미지를 비표적 스크래핑해 얼굴 인식 데이터베이스를 생성하거나 확장하는 경우, 개인의 특성·행동과 관련된 데이터로 개별 점수를 매기는 사회적 점수 매기기 등이 있다. 금지되는 것까지는 아니지만 인간의 안전이나 기본권에 고위험을 가져올 수 있는 AI시스템에 대해서도 EU AI법은 상세히 규정하고 있다. 의료, 교육, 선거, 핵심 인프라 등에 활용되는 AI 기술은 고위험 등급으로 분류돼 시장에 출시되기 전 인간이 AI 사용을 반드시 감독해야 하고 위험관리시스템을 갖춰야 한다. 고위험 AI시스템의 요건을 충족하는지 확인되면 위험평가와 관리 의무가 부가된다. 이러한 고위험 AI 시스템에는 의료 기기, 장난감, 기계류 등 EU 제품 안전 규정에 따라 규제되는 제품 또는 해당 제품의 안전 구성 요소인 AI 시스템, 중요 인프라, 금지되지 않는 생체 인식, 생체 인식 분류 시스템 또는 감정 인식 시스템인 AI 시스템, 고용, 근로자 관리 및 자영업에 대한 접근에 사용되는 AI 시스템, 개인의 신용도를 평가해 신용 점수를 설정하는 AI 시스템 및 생명 및 건강 보험의 경우 개인과 관련된 위험 평가 및 가격 책정에 사용되는 AI 시스템 등이 포함된다. EU AI법의 제반 규정들은 인간 중심적 AI를 개발 및 활용해야 한다는 입법 취지를 명확하게 반영하고 있다. 금지된 AI 서비스와 고위험 AI 시스템에 대한 규제를 보면 AI기술 발전에 따라 초래될 수 있는 인간의 자유와 기본적 권리를 침해하는 데이터 활용을 원천적으로 차단하고자 하는 의지가 느껴진다. 이에 대해서는 EU AI법이 과도한 선제적 규제로 AI기술과 시장이 미처 성숙할 시간을 주지 않고 규제해 AI기술의 발전에 제약이 될 것이며, 위반 시 전세계 매출액의 최대 3퍼센트(금지된 AI를 출시할 경우 전세계 매출액의 7퍼센트)에 해당하는 과징금의 부과에 대해서도 너무 큰 부담을 지우는 것이라는 의견도 존재한다. 새로운 기술의 개발 및 활용에 있어 규제를 공백으로 두기 보다는 어느 정도의 규제는 필요할 것이다. 아직 AI에 대한 구체적인 법령이 발효되지 않았지만 오랜 기간 이에 고민을 해온 우리나라는 포괄적 AI규제의 사실상 첫 스타트를 끊은 EU AI법의 내용뿐만 아니라 해당 법 집행에 따른 결과 등을 면밀히 분석함으로써 국민 기본권을 보호할 뿐만 아니라 국제적인 산업경쟁력을 갖출 수 있도록 하기 위한 AI 법제를 구축할 수 있기를 기대해 본다.

2024.08.06 08:18이강혜

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

예스24 또 속였나?..."1차 해킹 때 백업망도 랜섬웨어 감염"

삼성·SK, 올 상반기 R&D에 '적극 투자'…AI 시대 준비

"소비쿠폰 사용도 막았다"…홈플러스 폐점 발표에 노조·종사자 "철회하라"

메가존클라우드, AI 챔피언 대회 인프라 사업 수주…정부 AI 인재 육성 사업 주도

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.