• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'태평양'통합검색 결과 입니다. (46건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'APEC 중소기업장관회의' 잘하자…중기부 점검

중소벤처기업부는 9월 '아시아·태평양 경제협력체(APEC) 중소기업장관회의'를 앞두고 12일 세종시 청사에서 점검했다. 올해 APEC 의장국인 한국이 경주에서 정상회담을 연다. 이에 앞서 APEC 21개 회원국이 참석하는 APEC 중소기업장관회의는 9월 1일부터 5일까지 제주에서 개최한다. 이 회의는 APEC 중소벤처·소상공인 현안을 논의하기 위해 1994년부터 매년 진행된다. 기술경영혁신대전, APEC 중소기업혁신포럼, K-스타트업 개막식, 그랜드챌린지 쇼케이스, 글로벌 벤처투자포럼, 기후테크 스타트업 포럼, 동행축제 등 10개 행사가 예정됐다. 창업·스타트업 통합 행사로, 중기부는 국내·외 관계자들이 한데 어울리도록 기획하기로 했다.

2025.05.13 10:39유혜진

[기고] 공정거래위원회 규제와 AI 워싱

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 기술이 일상생활과 산업 전반에 확산되면서 "AI 기술을 사용한다"는 문구는 이제 기업 홍보에서 흔히 사용되는 표현이 됐다. 다만 실제로는 AI를 활용하지 않거나 기술 수준을 과도하게 부풀리는 사례도 증가하고 있다. 이같은 사례는 'AI 워싱(AI Washing)'이라고 불린다. 이는 환경 친화적이지 않은 기업이 친환경 기업인 것처럼 홍보하는 '그린워싱(Greenwashing)' 개념에서 파생된 용어다. 공정거래위원회(공정위)는 지난 1월 발표한 '2025년 주요업무 추진계획'을 통해 AI 워싱 행위에 대한 감시 및 실태조사를 추진할 계획임을 밝혔다. 공정위가 아직 AI 워싱의 구체적인 유형이나 판단 기준을 제시한 바는 없으나 관련 규제는 공정위 소관 법령인 '표시·광고의 공정화에 관한 법률(표시광고법)'을 근거로 이루어질 것으로 예상된다. 이에 AI 워싱을 판단함에 있어 표시광고법상 부당한 표시·광고에 관한 기본 법리를 숙지하는 것이 우선돼야 한다. 표시광고법 제3조 제1항 제1호는 허위·과장이나 기만적인 표시·광고를 통해 소비자를 오도하거나 잘못 인식하게 할 우려가 있는 행위를 금지하고 있다. 광고의 적법성은 보통 수준의 주의력을 가진 일반 소비자가 해당 광고로부터 받는 전체적이고 궁극적인 인상을 기준으로 객관적으로 판단해야 한다. 이는 대법원에서 지난 2010년 7월 22일 선고한 판결(2007다59066)에서도 확인된다. 또 광고에 포함된 사실에 대한 입증 책임은 광고주에게 있으며 합리적이고 객관적인 근거를 통해 이를 증명해야 한다. 이는 대법원에서 지난 2003년 3월 31일에 내린 결정(2002마4109)에 명시된 바 있다. 이에 AI 기술 관련 표시·광고를 기획할 때에는 전문가가 아닌 일반 소비자를 기준으로 소비자 오인 가능성을 면밀히 검토해야 한다. 또 광고의 실증책임은 공정위가 아닌 광고주에게 있다는 점을 명확히 인식해야 한다. 제한된 지면이나 시간 속에서 소비자에게 정보를 전달해야 하는 광고의 특성상 불가피하게 소비자의 오인이 발생할 수 있다는 인식도 있다. 그럼에도 공정위는 광고의 표제만으로도 소비자가 오인하지 않도록 구성할 것을 명시적으로 요구하고 있다. 만약 부득이하게 제한사항(Disclaimer)을 표제에 담을 수 없다면 광고를 대략적으로만 접한 소비자라도 핵심 제한사항을 인지할 수 있도록 시각적·언어적으로 효과적인 전달 방식을 갖출 것을 권장된다. 실제로 공정위는 이에 대한 가이드라인인 '주된 표시·광고에 딸린 제한사항의 효과적 전달에 관한 가이드라인'도 제정한 바 있다. 표시·광고에서 주장된 내용에 대한 실증 방식은 공정위 고시인 '표시·광고 실증에 관한 운영지침'에 상세히 규정돼 있으므로 사업자는 이를 참고해 실증자료를 구비할 필요가 있다. 실증자료가 해당 기준에 부합하지 않는 경우 실증이 미흡하다고 판단돼 제재로 이어질 수 있다. 또 AI 워싱이 그린워싱에서 착안된 개념인 만큼 공정위의 그린워싱 판단 기준을 참고하는 것도 유의미하다. 공정위는 지난해 그린워싱에 대한 감시를 주요업무 추진계획으로 발표했고 그 일환으로 '환경 관련 표시·광고 심사지침'을 대폭 개정해 시행했다. 개정 지침은 기존 심사지침의 일반원칙을 재정비하고 구체적인 사례를 제시하고 있으며 사업자가 스스로 법 위반 여부를 점검할 수 있도록 셀프 체크리스트도 신설했다. 공정위가 올해 주요 업무로 AI 워싱을 명시한 만큼 향후 관련 조사와 제재가 본격화될 가능성이 크다. 이러한 흐름은 국내에만 국한되지 않는다. 미국은 AI 기술 주도권 유지를 위한 규제 완화 및 기술 혁신 촉진 정책을 펼치고 있으나 동시에 AI 기술의 공공성 확보를 위한 규제적 대응도 병행하고 있다. 실제로 미국 법무부는 최근 AI 워싱 문제에 본격적으로 개입하는 모습을 보이고 있다. 향후 AI 워싱과 관련한 규제기관의 보다 구체적인 판단 기준이 제시될 것으로 기대된다. 사업자들은 그에 앞서 표시광고법의 기본 원칙과 그린워싱 선례 등을 바탕으로 자사의 내부 컴플라이언스 체계를 정비하는 것이 바람직하다.

2025.05.09 16:16법무법인 태평양 변채영

구글닷오알지, 'AI 오퍼튜니티 펀드: 아시아태평양' 국내 선정 단체 발표

구글의 자선 활동을 담당하고 있는 구글닷오알지는 '구글닷오알지 AI 오퍼튜니티 펀드: 아시아태평양' 1차 지원 대상으로 생성 AI 학습 커뮤니티 지피터스를 운영하는 '지니파이'와 교육 임팩트 기업인 '어썸스쿨'이 선정됐다고 7일 밝혔다. 구글닷오알지 AI 오퍼튜니티 펀드: 아시아태평양은 아태 지역의 근로자, 중소기업, 비영리 단체가 AI 기술을 보다 효과적으로 활용해 지역 사회에 기여할 수 있도록 지원하기 위해 조성된 프로그램이다. 최근 사회적 투자자 네트워크인 아시아 벤처 자선 네트워크(Asia Venture Philanthropy Network: AVPN)가 공개한 조사에 따르면, 아태 지역 내 AI 교육을 받은 사람은 15%에 불과하다. 또 대부분은 관련 교육의 존재조차 인지하지 못하고 있는 것으로 나타났다. 이에 구글닷오알지는 AI 기술 활용 기회를 확대하고 많은 사람들이 혜택을 누릴 수 있도록 지역 맞춤형 AI 교육을 지원하고 있다. 이번 1차 지원은 한국을 포함한 아태 지역의 49개 단체를 후원 할 예정이다. AVPN이 선정한 이 단체들은 아시아 개발 은행(ADB)의 지원을 통해 지역 별 언어와 문화, 경제적 상황을 반영한 맞춤형 AI 교육을 제공할 계획이다. 인도 농촌의 1인 창업자, 싱가포르의 이주 가사노동자, 일본의 장애인과 돌봄 인력 등 다양한 계층을 대상으로 프로그램이 운영된다. 한국에서는 서울대학교 AI 연구원(AIIS)이 전략적 파트너로 참여하며, 지니파이와 어썸스쿨이 국내 선정 단체로 함께하게 됐다. 서울대 AI 연구원은 AI 입문자 대상 커리큘럼 개발과 교육자 양성 프로그램을 주도하고 있으며, 현장 교육기관들과 협력해 콘텐츠 현지화, 베타 테스트, 피드백 개선 등 교육 품질 제고를 위한 지원을 담당할 예정이다. 지니파이는 국내 생성 AI 학습 커뮤니티 '지피터스'를 기반으로 지피터스 AI 스터디를 운영하며, 실습 중심의 커리큘럼과 선순환형 학습 구조를 통해 AI 실무 역량 강화를 지원하고 있다. 김태현 지니파이 대표는 "'실무형 AI 활용 능력'은 이제 취업 시장에서 핵심 요건으로 부상하고 있다"며 "이번 선정을 통해서 청년들이 AI를 통해 업무 프로세스를 혁신하고 새로운 기술을 적극적으로 수용할 수 있도록, 누구나 부담 없이 배울 수 있는 교육 환경을 확대해 나가겠다"고 밝혔다. 어썸스쿨은 전국 4천여 개 중·고등학교 네트워크와 교사 연수 경험을 바탕으로 AI 활용에 대한 교사들의 실질적인 역량 강화를 목표로 한 '트레인-더-트레이너' 모델을 운영하고 있다. 이지섭 어썸스쿨 대표는 "교사들이 현장에서 직면한 문제를 스스로 발견하고, AI를 통해 해결책을 모색해보는 경험을 제공하는 것이 교육의 핵심"이라며 "이를 통해 동료 교사나 다른 학교 현장에도 AI 기술이 자연스럽게 확산되기를 기대한다"고 말했다. 서울대 AI 연구원 함종민 산학협력센터장은 "이번 프로젝트는 사회적 가치 창출을 목표로 하며, 특히 기술 발전의 사각지대에 놓인 계층을 지원한다는 점에서 더욱 특별한 의미가 있다"고 말했다. 구글닷오알지 산제이 굽타 아시아태평양 지역 총괄은 "'구글닷오알지의 AI 오퍼튜니티 펀드: 아시아태평양'는 소외된 지역 사회의 AI 교육 기회를 확대하고, 아시아태평양 전역에 보다 포용적인 기술 생태계를 구축하는 데 기여하고 있다"며 "구글은 지속적인 협력을 통해 모두가 AI의 가능성을 온전히 누릴 수 있도록 하겠다"고 밝혔다. 구글닷오알지는 기존 1천500만 달러 규모의 기금에 1천200만 달러를 추가해 총 2천700만 달러 규모로 펀드를 확대했다. 이를 통해 아태 지역의 근로자 72만 명, 중소기업(MSME) 10만 개, 비영리 단체 1만개를 대상으로 실질적인 AI 활용 역량을 강화하고, 디지털 인프라 접근성 개선과 교육 격차 해소에 기여할 예정이다. 2025년 '구글닷오알지 AI 오퍼튜니티 펀드: 아시아태평양' 프로그램 및 수상 단체에 대한 자세한 내용은 구글코리아 공식 블로그에서 확인할 수 있다.

2025.05.07 14:43백봉삼

지속되는 트럼프 이펙트…"부상하는 관세·외환 리스크 주목해야"

도널드 트럼프 미국 대통령의 관세정책 여파로 국내·외 기업들의 불안감이 증가한 가운데 법무법인 태평양이 주한미국상공회의소(암참)와 함께 대응 전략 마련을 위해 머리를 맞댔다. 태평양은 지난 달 30일 종로구 소재 본사에서 암참과 공동으로 '관세 및 외환조사-최신 동향과 대응 전략'을 주제로 '암참 인사이트(AMCHAM Insight)'세션을 개최했다고 2일 밝혔다. 이날 세미나에는 암참 회원사를 비롯해 국내·외 주요 기업 및 기관의 준법·리스크 관리 담당자 140여 명이 참석했다. 특히 이번 세미나에서는 최근 들어 트럼프 대통령의 관세부가조치, 관세청의 단속기조 강화 등 국내외적으로 관세·외환 분야 중대한 변화를 맞이한 가운데 관세·외환조사 관련 주요 이슈에 대한 실질적인 인사이트를 제시, 암참 회원 기업들에게 향후 대비 전략을 모색할 수 있는 유익한 기회를 제공했다. 제임스 김 암참 회장 겸 대표는 개회사를 통해 "글로벌 규제 환경이 급변하는 가운데 관세 및 외환조사는 많은 기업들에게 단순한 잠재 리스크가 아닌, 즉각적이고 중대한 경영 과제로 떠오르고 있다"며 "우리 회원사들이 갈수록 복잡해지는 규제 환경 속에서도 리스크를 선제적으로 파악하고 효과적으로 대응하며 준법 경영을 실현할 수 있도록 시의적절한 인사이트와 실질적인 전략을 제공하는데 최선을 다할 것"이라고 말했다. 이준기 태평양 대표변호사는 환영사를 통해 "기업들이 복잡하게 변화하는 관세 및 외환 규제 환경을 명확히 이해하고 선제적으로 대응 전략을 마련하는 것이 무엇보다 중요하다"며 "특히 관세법과 외국환거래법 규정의 위반은 단순한 세금 추징 이슈에서 끝나지 않고 과태료와 같은 행정적 제재, 더 나아가 형사처벌과 같은 중대한 제재로 이어지는 경우도 많아 더욱 깊은 주의가 필요하다"고 설명했다. 첫 번째 세션에서는 법무법인 태평양 제레미 에버렛 외국회계사가 '관세 및 외환조사-최근 동향과 인사이트'를 주제로 발표를 진행했다. 그는 최근 국내 기업들이 경험하고 있는 실제 사례를 기반으로, 세관 및 외환당국의 조사 경향과 주요 쟁점 사항에 대해 깊이 있는 분석을 제시했다. 에버렛 회계사는 "관세조사는 세관 신고, 원산지 및 적용 국제표준 품목번호(HS 코드)에 대한 단순한 심사보다 법률적 영향의 범위가 훨씬 크다"며 "관세청은 한국의 외환관리법령 및 기타 산업별 법령의 준수 여부를 조사하는 업무를 수행하고 있고 이를 위반할 경우 제재 및 형사상 기소로 이어질 수 있다"고 강조했다. 두 번째 세션에서는 서승원 태평양 변호사가 '분야별 주요 이슈 분석 및 사례 연구'를 주제로, 기업들이 실제로 활용할 수 있는 대응 전략과 리스크 완화 방안에 대해 다양한 산업군의 사례를 중심으로 발표를 이어갔다. 특히 그는 2023년 부가가치세법 개정에 따른 수정수입세금계산서 발급 요건에 관한 이슈, 외국환거래법상 상계 및 제3자 지급 이슈, 수입요건 이슈 등과 관련해 다양한 실무 사례들을 소개했다. 또 조사대응을 위한 실무적인 팁과 다국적기업을 위한 ACVA(특수관계자 간 과세가격 사전심사)제도의 활용도 설명했다. 태평양 측은 "우리 관세팀은 주성준 변호사(팀장)를 필두로 한위수, 심규찬 변호사, 이찬기 고문(전 관세청 차장·인천본부세관장)을 비롯한 관세청 출신의 전문가들이 있다"며 "통상 전문 곽시명 회계사, 제레미 에버랫 외국회계사, 김종윤 전문위원 등이 조세 관련 사전 컨설팅부터 리스크 해소, 분쟁의 대응까지 전방위 자문하고 있다"고 밝혔다.

2025.05.02 09:26장유미

[기고] AI 워싱, 신뢰를 위한 규제와 책임의 조화

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 기술이 산업 전반에 빠르게 확산되면서 'AI 워싱(AI Washing)'이라는 새로운 마케팅 현상이 두드러지고 있다. 최근 미국에서 소비자들이 '애플 인텔리전스'라는 AI 기능을 강조하는 광고를 믿고 아이폰16 등의 제품을 구매했으나 실제로는 이 기능들이 제한적이거나 아예 제공되지 않았다고 주장하면서 애플을 상대로 집단소송을 제기했다. 이는 단순한 과장 광고를 넘어 이른바 AI 워싱에 해당된다는 주장이다. AI 워싱은 말 그대로 'AI를 덧씌운 세탁 행위'다. 기업이 실제로는 AI 기술을 거의 사용하지 않거나 일부만 적용했음에도 마치 첨단 AI를 전면적으로 도입한 것처럼 홍보하는 행위를 말한다. 이는 친환경적이지 않은 기업이 마치 친환경 경영을 하는 것처럼 홍보하는 '그린 워싱(Green washing)'과 유사한 개념이다. 최첨단 AI 기술을 사용한 제품이나 서비스인 것처럼 과장해 소비자의 관심을 끌거나 선택에 혼동을 주고 AI 제품의 기능을 과장해 투자 유치 등에 나서는 것이다. AI 워싱이 만연하게 되면 소비자는 AI의 성능에 의문을 갖게 될 것이다. 실제 사용을 통해 부정적 경험이 누적될 경우 AI 기술 자체에 대한 신뢰도가 저하될 수 있다. 실제로 AI를 제대로 활용하지 않는 기업들이 '혁신 기업'으로 포장되면 진짜 기술을 가진 기업에 투자 자원이 제대로 분배되지 않아 기술 발전이 저해된다. 또 과장된 경쟁 환경 속에서 기업들이 무리한 목표를 세우고 추진할 경우 자원 낭비는 물론 프로젝트 실패로 이어져 오히려 전체 산업의 혁신 속도를 늦출 수 있다. AI 워싱을 직접적으로 규제하는 특별 법령은 아직 국내외에 마련돼 있지 않으나 기존의 소비자 보호 및 공정 거래 관련 법령을 통해 규제가 가능하다. 국내의 경우 표시광고법 등이 적용될 수 있고 미국에서는 증권거래위원회(SEC)의 증권법과 연방거래위원회(FTC)의 소비자 보호 규정 등이 적용되고 있다. 미국의 경우 SEC는 지난해 투자자문사 델피아와 글로벌프리딕션스가 AI 기능을 허위 광고했다며 각각 22만5천 달러(한화 약 3억원), 17만5천 달러(한화 약 2억3천400만원)의 벌금을 부과했다. FTC는 기업들에게 AI 활용 정보를 명확하게 표시하고 이를 공개하도록 하는 등 AI 워싱 대응에 적극적인 모습을 보이고 있다. 국내에서는 아직 AI 워싱에 대한 직접적인 제재 사례는 없다. 다만 공정거래위원회가 올해 주요업무 추진계획을 발표하면서 AI 분야와 관련해 'AI 워싱' 행위 감시 및 실태조사를 추진하겠다고 밝힌 바 있다. 또 서울 YMCA와 같은 시민단체들이 애플의 사례를 들어 공정거래위원회 조사 요청 및 검찰 고발 촉구를 검토하는 등 움직임도 보이고 있다. 다만 이 같은 현상을 오로지 기업의 윤리 문제만으로 치부할 수는 없다. AI의 개념 자체가 포괄적이고 모호하다는 점, 현행법상 "어디까지가 진짜 AI인가"에 대한 명확한 판단 기준이 없다는 점은 기업 입장에서 판단과 홍보에 혼선을 불러올 수 있다. 인공지능기본법(AI기본법)이 올해 제정됐지만 그 정의조차 '학습·추론·판단 등 인간 지능의 전자적 구현'이라는 추상적 표현에 머물러 있다. 규제 체계가 기술 발전 속도를 따라가지 못하는 상황에서 기업들이 기술적 용어에 의존할 수밖에 없는 유인도 분명히 존재한다. 이러한 구조적 한계 속에서도 기업은 소비자 신뢰를 확보하고 법적 리스크를 줄이기 위해 AI 기술의 실제 사용 범위, 성능, 한계 등을 투명하게 공개해야 한다. 단순히 'AI 기반', '지능형'이라는 문구만으로 광고하지 말고 기술의 적용 방식과 효과에 대한 구체적인 설명을 수반해 소비자의 오인가능성을 줄여야 한다. 내부적으로도 기술 검증, 홍보 문구 사전 검토 등의 컴플라이언스 체계를 갖추는 것이 필요하다. AI 기술이 사회 전반에 빠르게 확산되고 있는 지금이야말로 규제의 명확화와 기업의 책임 있는 자세가 모두 필요하다. 허위와 과장의 영역에서 기술의 신뢰는 생기지 않는다. 소비자 보호와 기술 혁신, 두 마리 토끼를 잡기 위해서는 모두의 노력이 절실한 시점이다.

2025.04.25 17:09법무법인 태평양 강정희

[기고] AI 혁신 속 개인정보 보호

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 이제 우리의 일상생활 속에는 인공지능(AI)이 깊숙이 자리잡고 있다. 과학기술정보통신부가 지난 3월 발표한 '2024년 인터넷이용실태조사'에 따르면 응답자의 60.3%가 AI 서비스를 이용한 경험이 있다고 답했다. 이는 2021년 동일한 질문에 대해 32.4%가 AI 서비스를 이용한 경험이 있다고 응답한 것과 비교하면 불과 3년 사이에 거의 두 배 가까이 증가한 수치다. 단편적인 조사 결과지만 AI가 얼마나 빠르게 우리의 삶 속으로 스며들었는지 짐작할 수 있다. AI가 단순한 기술의 범주를 넘어 삶의 필수 요소로 자리 잡게 된 배경에는 방대한 양의 데이터 학습 및 활용이 있다. 이러한 데이터에는 당연히 개인정보가 포함돼 있다. 신기술 분야의 발전은 필연적으로 데이터에 대한 높은 의존도를 수반하기에 변화하는 산업 환경에 맞춰 법과 제도를 정비할 필요가 있다. 또 정보주체의 권리를 보호하면서 개인정보를 안전하고 가치 있게 활용할 수 있는 기반을 마련하는 것이 중요하다. 개인정보보호위원회는 이러한 흐름에 발맞춰 AI 응용서비스에서 발생할 수 있는 개인정보 보호 취약점을 사전에 점검하고자 '사전 실태점검'을 실시하고 있다. 이는 AI 서비스의 개인정보 처리에 있어 투명성과 책임성을 확보하고 정보주체의 권리 보장 및 서비스의 안정적 운영에 기여하기 위한 조치라 할 수 있다. 기업 입장에서는 실태점검의 내용을 검토함으로써 AI에서의 개인정보 활용 및 보호를 위한 준수사항 등을 명확히 확인하고 실천할 수 있다. 일례로, 공개된 데이터를 활용해 AI 모델을 학습시키는 과정에서 주민등록번호나 여타 고유식별정보, 신용카드 번호와 같이 유출 시 피해가 클 수 있는 개인정보가 포함될 수 있다. 이 경우 사전 삭제 또는 비식별화 조치 등을 통해 유출 위험을 방지하는 등 개인정보를 안전하기 관리하기 위한 조치가 수반돼야 한다. 또 이용자 입력 데이터를 처리하는 과정에서 사람이 직접 해당 데이터에 접근하거나 검토를 수행하는 경우에는 이용자가 이를 인지하기 어렵다. 이에 따라 이용자로부터 미리 동의를 받는 것에는 어려움이 있고 이러한 사실을 명확하게 고지하는 것이 바람직하다. 아울러, 이용자가 입력한 데이터를 손쉽게 삭제하거나 처리 중단을 요청할 수 있도록 하는 기능도 함께 제공돼야 한다. 이에 더해 AI 서비스와 관련된 개인정보 처리의 전반에 있어 개인정보처리방침 등을 구체적으로 명시하고 관련 법령에 따른 안전조치의무를 준수해야 한다. 또 개인정보의 적법 처리 근거도 다양화할 필요가 있다. AI 모델 학습 등 연구 개발의 특성을 고려할 때 정보주체의 동의에만 의존하기보다는 개인정보처리자인 AI 서비스 사업자의 정당한 이익 등 다른 법적 근거를 함께 검토하는 것이 적절하다. 이러한 접근은 기술혁신을 위축시키지 않으면서도 정보주체의 자기결정권 등 권리를 보호하고 개인정보를 보다 안전하고 책임 있게 활용할 수 있는 토대가 된다. AI 서비스를 위한 데이터의 처리는 기술 발전의 핵심이자 경쟁력의 원천이지만 그 이면에 존재하는 개인정보 보호 문제를 소홀히 해서는 안 된다. AI에 대한 관심을 바탕으로 기술의 발전과 함께 신뢰할 수 있는 환경을 조성하기 위한 노력이 필요하다.

2025.04.11 16:46법무법인 태평양 이강혜

예후 불량 췌장암·담도암…"아태 협력해 젊은 의사 양성 기대”

“아시아-태평양 지역 의료 표준을 선도하고, 신기술 개발과 임상연구 협력 확대, 전 세계 의료진에 교육을 제공하겠다.” 대한췌장담도학회의 퍽 야심찬 기조다. 4일부터 이틀 동안 오전 서울 광진구 그랜드워커힐서울에서 개최되는 '2025년 국제 췌장담도학회'에 앞서 서동완 대한췌장담도학회 이사장(서울아산병원 소화기내과 교수)과 유병무 대한췌장담도학회장(아주대병원 소화기내과 교수) 등 학회 집행위원들은 기자들과 만난 자리에서 글로벌 협력 강화 등을 골자로 한 이번 IPBM의 추진 방향을 설명했다. 서동완 이사장은 “예후가 나쁜 암 질환 극복을 위한 새로운 치료기술개발과 발전으로 환자의 생존율 증가 및 삶의 질 향상을 위해 노력하고 있다”라며 “아시아-태평양 지역에서 췌장담도암을 고민하는 의학자들이 늘고 있다”라고 말했다. 이들이 IPBM에 자신감을 보이는 이유는 췌장 및 담도 질환을 아우르는 국제학회는 전무한 상황이기 때문이다. 특히 올해부터 '아시아-태평양 췌장담도질환협회(APBA)'가 창립돼 우리나라를 비롯해 일본·대만·태국 등도 참여하고 있다. 참여 중인 학회는 ▲대한췌장담도학회 ▲일본담도학회 ▲대만췌장담도인터벤션내시경학회 ▲태국내시경학회 등이다. 올해 대회에서는 이들 학회가 모두 참여한다. 또 올해 대회에는 30여 개국에서 600여명의 참가자가 온오프라인으로 참가했다. 31개국에서 제출된 337편의 초록과 포스터가 발표될 예정이다. 예후 나쁜 췌장암·담도암…“인재양성할 것” 췌장암과 담도암이 중요한 이유는 국내 암종에서 좋지 못한 예후와 높은 사망률을 가져오는 질환이기 때문이다. 대한췌장담도학회에 따르면, 2022년 기준 국내 췌장암 연간 발생자 수는 8천500여명으로, 전체 암 중 8번째, 암종별 사망자 수 4위로 나타났다. 1993년~2020년 암 생존율은 30% 이상 증가했지만, 췌장암은 증가 폭이 5%에 불과했다. 또 담도 분야 질환 중에는 담석증이 비교적 잘 알려져 있다. 담석증은 미국인 10%~15%에서 발견될 정도로 흔한 질환이다. 건강보험심사평가원에 따르면, 국내도 비만환자 증가로 관련 환자가 2011년 약 11만 명에서 2022년 24만 명으로 2배 증가했다. 전체 담석 환자 10%~25%는 복통 등의 증상이나 급성 담낭염 및 담도염, 담석성 췌장염 등의 합병증을 경험한다. 이때 적절 치료가 이뤄지지 않으면 사망에 이를 수 있다. 담석증 자체의 위험성뿐만 아니라 잠재적 위험성도 무시할 수 없다. 바로 담도암의 원인이 되기 때문이다. 담도암은 췌장암 다음으로 빈번하게 발병하고, 암종별 사망자 수에서도 6위에 달하는 등 예후가 불량한 것으로 알려져 있다. 그렇지만 상당수 담도암 환자가 간암으로 분류돼 실제 환자 수는 이보다 더 많을 것으로 추정된다. 하지만 췌장 및 담도 분야도 전공의에게 인기 있는 진료과는 아니다. 서동완 이사장은 “힘들고 어려워서 많은 후학들이 지원하고 있지 않다”라면서 “학회가 조기 교육을 통해 국제무대에서 리더가 되도록 하는 방안을 고심하고 있다”라고 설명했다. 송태준 대한췌장담도학회 총무이사(울산의대 교수)도 “전 세계적으로 필수의료 기피로 젊은 의사들이 어려운 분야를 택하고 싶어 하지 않는 경향이 있다”라며 “일본이나 대만에서도 췌장 및 담도를 전공하는 의사가 줄고 있다”라고 말했다. 이어 “젊은 의사들을 더 영입하기 위한 TF를 구성해 이들이 자부심을 갖고 일할 수 있도록 고민할 것”이라며 “우리나라뿐만 아니라 대만, 태국 의사들에게 더 많은 교류에 기회를 제공하겠다”라고 전했다.

2025.04.04 12:29김양균

[기고] EU 데이터법과 인공지능 산업의 발전 방향

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 유럽연합(EU)이 제정하고 실행해 전 세계에 영향을 미치고 있는 많은 법령들이 있다. 개인정보에 관한 강한 보호와 규제를 천명한 일반정보보호규정(GDPR)이 그러하다. 전 세계에서 최초로 입안해 시행했지만 여전히 많은 논란이 제기되고 있는 EU 인공지능(AI)법 역시 전 세계 국가들로부터 반향을 불러일으키고 있다. EU가 이미 관련 법을 제정하고 시행하고 있는 상황에서 우리나라 역시 이에 대한 입법 논의가 이루어지지 않는다면 입법부가 책임을 다하지 않는 것처럼 보일 수 있다. 입법기관 구성원들 역시 마치 아무 일도 하지 않는 사람처럼 비칠 수 있어 무엇이든 조치를 취해야 한다는 압박감을 느낄지도 모른다. 근래의 EU 법안 패키지들 중 시행을 앞두고 있지만 국내에 잘 알려지지 않은 법이 있다. 법의 정식 명칭은 '데이터의 공정한 접근 및 사용에 관한 조화로운 규칙에 관한 규정'이고 줄여서는 EU 데이터법(EU Data Act)라고 부른다. 이 법은 지난해 1월에 제정이 됐고 이로부터 20개월 이후인 올해 9월부터 단계적 시행을 앞두고 있으니 사실 그 시행이 얼마 남지 않은 법이다. 이 법은 EU 내 커넥티드 제품 및 관련 서비스 사용 과정에서 생성되거나 제공되는 정보에 대해 적용된다고 한다. 이용자가 사용하는 것과 관련한 데이터, 이용자의 사용 환경과 관련한 데이터를 수집 및 생성한다. 또 그 정보가 전달할 수 있는 제품의 경우에는 기본적으로 이 법이 적용이 된다. 대부분의 법이 그러하듯 정의 조항을 읽어 봐도 그 내용이 무엇인지를 정확하기 이해하기 어려운 것은 이 법도 마찬가지다. 소위 얘기하는 커넥티드카, 건강 모니터링 기기, 스마트 홈 기기, 스마트폰 등이 이 법의 적용대상이 됨에는 별다른 의문이 없다. 이와 유사하게 서버와 이용자 기기 사이에서 데이터의 교환이 이루어지는 제품과 관련 서비스에 대해서는 모두 적용되므로 그 적용범위가 매우 넓다고 할 수 있다. 이 법은 커넥티드 제품 제조자에게 데이터 접근 중심의 설계를 의무화하고 사용자에게 데이터 제공 관련 정보를 명확하고 이해하기 쉬운 방식으로 안내할 책임을 부과하고 있다. 또 사용자의 요청이 있을 경우 제품이나 관련 서비스에서 생성된 데이터에 대한 접근 권한을 사용자에게 제공해야 하며 데이터 보유자는 사용자가 지정한 제3자와 해당 데이터를 공유할 수 있도록 해야 한다. 이 법은 의무사항을 위반한 경우 제재 수단에 대해 구체적으로 규정하고 있지는 않다. 어쩌면 이 법이 큰 주목을 받지 못하는 것은 이처럼 제재수단에 대해 법 자체에서 규정하고 있지 않기 때문일지도 모르겠다. 그럼에도 불구하고 이 법은 각 회원국에 대해 데이터법 위반자에게 부과할 과징금을 EU 내 연간 매출액 등 여러 요소를 고려해 산정하도록 하는 의무를 부여하고 있다. 이에 따라 이 법을 위반할 경우 매출액을 기준으로 한 과징금이 부과될 것이라는 점에는 큰 의문이 없다. EU 데이터법은 개인정보를 포함한 데이터의 유통을 규율하는 법률인 만큼, 개인정보 유통을 다루는 GDPR과 유사한 규정들이 일부 포함돼 있다. 글로벌 서비스를 제공하는 기업의 입장에서는 GDPR 사례에서처럼 어차피 EU 내 규제를 준수해야 하므로, 커넥티드 제품의 데이터 처리와 관련해서도 EU 데이터법 기준에 맞추어 전 세계 서비스를 동일한 수준으로 확장할 가능성이 충분하다. 과거에는 이용자로부터 수집됐지만 개인정보에 해당하지 않는 데이터의 처리는 이른바 익명정보의 영역으로 간주돼 GDPR의 적용을 받지 않았다. 또 해당 데이터가 저작권법의 보호 대상이거나 그 처리 행위가 부정경쟁행위에 해당하지 않는 이상 별다른 규제가 존재하지 않았다고 볼 수 있다. 반대로 곧 시행되는 EU 데이터법은 데이터의 수집 및 제공에 일정한 의무를 부과함으로써 이제는 이용자로부터 수집하는 데이터에 대해서도 일정한 책임과 준수해야 할 요건이 발생한다는 점을 인식할 필요가 있다. 이에 따라 기존과는 다른 관점에서 데이터 활용에 대한 발상의 전환이 요구된다. AI 산업과 관련해서도 마찬기지이다. EU 이용자로부터 커넥티드 제품을 이용해 데이터를 수집하는 경우에는 비록 개인정보가 아니라 하더라도 EU 데이터법 준수를 항상 명심해야 한다. 이용자로부터 수집한 데이터를 인공지능 서비스 개발을 위한 학습용 데이터로 사용하고자 하는 경우에도 해당 법의 준수를 미리 유의해야 한다. AI 서비스 간의 경쟁이 점점 더 치열해지고 있다. 단순히 산업 내의 문제가 아니라 국가의 생존을 위한 기술패권 다툼의 영역이 되어 가고 있는 상황이다. 이러한 상황에서 EU데이터 법의 제정과 시행이 EU 역내 국가의 경쟁력과 글로벌 시장에 어떠한 영향을 미칠지는 아직 판단하기는 어렵지만 AI를 비롯해 데이터 관련 산업의 경쟁력에 상당한 파급력을 가지게 될 것이다. 산업 보호를 명분으로 제정된 많은 법들이 오히려 기존 사업자들보다 새롭게 시장에 진입하려는 스타트업이나 신생 기업들에게 더 무겁게 작용하는 모습을 우리는 여러 차례 목격해왔다. 우리나라는 적어도 법제 측면에서는 '패스트 팔로워'를 넘어 '퍼스트 무버'로서의 입지를 점차 구축해가고 있으며 실제로 EU 데이터법과 유사한 법제를 이미 보유하고 있다. 이에 따라 산업의 보호와 발전이라는 관점에서 보다 심도 있는 논의가 이루어지고 전략적인 입법 방향이 마련되기를 기대한다.

2025.04.01 15:22법무법인 태평양 강태욱

[기고] 인공지능, 변호사와 닮은 꼴일까

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 업무에 인공지능(AI)을 사용하는 것이 당연한 시대가 되고 있다. AI 서비스가 포털의 검색서비스처럼 대중화되고 있는 것을 보니 변호사보다 법을 더 잘 아는 AI도 곧 현실이 될 것으로 보인다. 그렇다면 똑똑한 AI가 변호사를 대신할 수 있느냐는 궁금증이 생긴다. 답은 현재로서는 법적 제약이 있어서 어렵다는 것이다. 자격을 갖춘 변호사만 법률사무를 처리할 수 있도록 변호사법이 제한하고 있어서 AI가 법률사무를 처리하는 것은 불법이기 때문이다. 법전을 뒤져야 법률을 알 수 있었던 예전과 달리 법령의 내용, 적용사례, 법원 절차나 제출서류, 작성방법 같은 것은 인터넷에서 쉽게 찾을 수 있게 됐다. 또 법절차에 관한 경험담도 검색 서비스를 통해 쉽게 접할 수 있게 됐다. 이같은 요즘 상황에서 자격을 갖춘 변호사만 법률사무를 처리할 수 있게 제한하고 있는 이유가 궁금할 수 있다. 여기에는 여러 가지 이유가 있을 수 있지만 가장 근본적인 이유는 법률관계가 사람에게 미치는 영향이 크고 중요하기 때문이다. 업무로서의 법률관계에 관한 해석이나 조언을 수행하기 위해서는 법률 지식이 있는 것만으로는 충분하지 않으며 의뢰인의 비밀을 지키고 법조 윤리를 지키는 전문가에게만 허용해야 안전하다는 설명이다. 실제로 변호사는 법률 지식에 관한 시험 통과만을 요구받지 않는다. 지속적으로 윤리교육을 받을 의무, 특수한 상황에서는 수임 자료를 제출해서 점검을 받을 의무가 부과되는 등 간접적인 형태로 직업윤리가 요구되고 있다. 또 협회를 통한 자율적인 감시도 이루어지고 있다. 그런데 얼마 전 제정돼 오는 2026년 1월에 시행되는 AI기본법은 AI 서비스에 윤리와 신뢰성에 관한 권고나 의무를 구체적으로 요구한다. 그런데 이는 변호사에게 요구되는 윤리와 닮은 점이 있다. 본래 윤리란 법으로 그 내용을 확정하기 어렵기 때문에 관련 규정을 법률에서 정하는 경우가 많지 않다. 그런데 AI기본법에서는 AI 윤리를 비록 장려 형태지만 중요사항으로 규정하고 있다. 또 서비스가 AI에 기반해 운용된다는 점과 AI 결과물이라는 점을 이용자에게 알려야 하는 투명성 의무, AI의 위험과 안전사고에 대한 대응 체계를 갖추고 이행 결과를 정부에 제출해야 하는 안전성 확보에 관한 의무를 일정 요건에 해당하는 사업자에게 추가로 부과하고 있다. 이는 AI서비스가 이용자에게 중대한 영향을 줄 가능성이 있기 때문에 서비스가 윤리를 준수하고 외부 견제를 받도록 간접적인 안전조치를 취한 것으로 보인다. 변호사는 법률 지식과 자격시험 통과뿐만 아니라 윤리 준수와 외부 견제를 요구받는다. 이는 사용자에게 중요한 영향을 미치는 AI 서비스에 투명성과 안전성 조치를 요구하는 것과 닮아 있다. 더 넓게 보면 공통점은 보다 많아진다. 온라인에서 법률 정보, 판례, 해설서를 검색하고 제공하는 서비스는 변호사 자격 없이도 운영할 수 있다. 다만 구체적인 법률관계를 해석하고 자문하는 등 본격적인 법률 업무를 수행하려면 변호사 자격이 필요하다. 마찬가지로 AI 서비스도 일반적인 경우에는 특별한 제약이 없지만 사회적으로 중요한 영향을 미치는 서비스라면 정부가 개입하겠다는 태도를 보이고 있다. 향후에도 이러한 흐름은 계속될 가능성이 크다. 정부가 AI의 구체적인 내용에 개입하는 것은 어렵고 적절하지도 않다는 점을 생각하면 미래에는 법률 사무처럼 중요한 서비스를 위해 AI가 일정한 자격시험을 통과하는 제도가 생기는 것이 아닐까 섣부른 추측을 해 본다. 나아가 AI가 계속 발달한다면 변호사 자격까지 갖추고 법률사무를 처리하게 되는 것도 허황한 꿈은 아닐수 있다는 생각이 든다.

2025.03.17 14:28법무법인 태평양 류광현

[기고] AI 법제화에 따른 기업의 대응 전략

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 기술이 빠르게 발전하면서 각국이 본격적으로 AI 관련 법제화를 추진하고 있다. 다만 AI는 그 활용 분야가 특정 산업∙업무에 국한되지 않고 개발에 있어서도 여러 법률 이슈가 존재해 단일한 법으로 모든 문제를 해결하는 것은 매우 어려운 일이다. 우리나라도 내년부터 시행 예정인 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'을 통해 AI의 정의∙분류와 사업자의 기본적인 의무 등에 관한 법적 틀을 마련한 바 있다. 그러나 AI의 개발∙운용이 기존의 개인정보 보호법, 저작권법, 독점규제 및 공정거래에 관한 법률 등 여러 법률과 맞물려 있는 상황으로, 기업들은 AI 관련 사업이나 업무를 추진할 때 다양한 법률에 대한 종합적인 검토를 거쳐야만 안심할 수 있다. 이러한 사정은 해외에서도 마찬가지다. 특히 유럽연합(EU)에서는 AI 시스템의 위험도 및 그에 따른 의무 등을 규정한 'EU AI법'을 중심으로 다양한 기타 법안들을 살펴볼 필요가 있다. 이 중에는 AI 개발∙운용에 수반되는 개인정보 처리에 적용되는 '일반정보보호 규정(GDPR)', 디지털 시장 및 서비스에 적용되는 '디지털 시장법(DMA)' 및 '디지털 서비스법(DSA)', 특정 산업에서의 경쟁제한성과 독점적 지위 강화에 대한 경쟁법 등을 살펴봐야 한다. 최근 기업의 타겟이 글로벌화 되면서 국가 간 경계가 흐려지고 있고 AI 개발에 활용되는 데이터도 특정 국가에서 생성∙수집된 것으로 한정되지 않고 있다. 이에 AI를 개발하고 활용하는 과정에서 국내뿐 아니라 해외 규제도 종합적으로 검토하는 것은 필수적인 과정이 됐다. 이에 따라 기업이 복잡한 규제 환경에서 AI를 안전하게 개발∙운용하기 위해서는 단순히 법제 동향을 파악하는 것을 넘어 AI 개발 및 운영 과정 전반에서 법적 위험을 사전에 검토하고 대응책을 마련할 수 있는 체계를 구축해야 한다. 이를 위해 기업이 실질적으로 고려해야 할 대응 전략으로는 다음과 같은 것들이 있다. 먼저 AI 기획∙개발∙운용 단계별로 적절한 법적 검토가 이루어질 수 있도록 내부 검토 기준을 마련할 필요가 있다. 특히 AI 기획∙개발 단계에서는 알고리즘의 공정성, 학습 대상이 되는 데이터 조달 방식에 따른 개인정보 처리 적법성, 저작권∙초상권 침해 여부 등의 위험요소에 대한 검토가 필요하다. AI 운용 단계에서는 이용자의 권리∙의무에 미치는 영향, AI 결정의 불공정성, 투명성 등에 대해 검토가 필요하다. 이 외에 AI를 직접 개발하는 것이 아니라 외부 AI 솔루션을 도입하거나 데이터를 외부에서 제공받는 형태로도 개발이 이루어질 때가 있다. 외부 제3자와 협업하는 경우에는 법적 위험을 최소화할 수 있도록 업체 선정 및 계약 단계에서부터 실제 개발∙활용 단계까지 양사 간 법적 관계 및 책임 소재를 명확히 하기 위한 기준을 마련해야 한다. 특히 데이터의 적법성 및 활용 범위, 저작권∙라이선스 등에 대해 분쟁이 발생할 위험이 있으므로 이러한 부분을 유의해야 한다. 이처럼 기업은 내부 인원들이 이러한 단계별 위험요소를 충분히 인지하고 각 단계별로 법적 검토를 진행할 수 있도록 큰 틀의 검토 기준을 마련하고 이를 교육하는 절차를 구축해야 할 것이다. AI 기획∙개발∙운용 단계별로 고려가 필요한 내부 기준이 마련되면 이제 이를 실효성 있게 만들 수 있는 거버넌스 체계를 구축해야 한다. AI 기술이 기업 내에서 광범위하게 활용되면서 개별 부서에서 각각 별도의 AI 시스템을 개발하는 사례가 많아지고 있다. 기업 내부에서 기준을 마련했다고 하더라도 이를 체계적으로 검토하기 위한 거버넌스가 구축돼 있지 않다면 AI 모델이 완결성 있는 검토 없이 개발돼 사후적으로 큰 문제가 발생할 수 있다. 이를 방지하기 위해 내부 지침 및 기준 등에 맞게 체계적인 검토를 주도할 수 있는 위원회나 담당부서 등을 신설 또는 지정할 필요가 있다. 실제로 시스템을 구축한 사례들을 살펴보면, 글로벌 기업인 A사는 자사 AI 시스템의 영향도, 목적적합성, 데이터 거버넌스, 투명성, 안정성 등을 평가하기 위한 종합적인 AI 가이드라인을 구체적으로 제시했다. 또 AI 원칙, 기술, 윤리, 법률, 정책 분야의 최고 전문가들로 구성된 내부 위원회를 통해 최신 AI이슈에 대한 조사, 정책 개발 및 도구 제작, 특정 기술 분야에 대한 실행 지침 수립, AI 모델 평가 등의 업무를 수행하고 있다. 이 외에도 많은 기업들이 자신의 입장을 고려한 AI 거버넌스를 구축하고 있다. 분야를 막론하고 이들의 공통점은 일관된 기준과 그 기준을 구체화한 가이드라인, AI 개발∙운용에 대한 체계적인 관리를 위한 거버넌스를 구축하고 있다는 점이다. AI에 대한 법적 규제가 고도화되고 있으나 AI의 복잡성과 발전 속도로 인해 많은 기업들이 그 대응 전략을 설정하는 데 어려움을 겪고 있는 것도 현실이다. AI가 공급망 전단계에 걸쳐 다양하고 새로운 법적 위험을 내포하고 있는 만큼 이에 대한 대비가 부족한 경우 불필요한 법적 분쟁에 휘말릴 가능성이 커질 수밖에 없다. 반면 AI 법제를 선제적으로 검토하고 체계적인 위험 관리 체계를 갖춘 기업은 단순한 규제 준수를 넘어 효율성 있는 정책 및 전략 수립을 세울 수 있을 것이다. 이로써 이들이 AI 비즈니스에서 경쟁력을 확보할 수 있는 기회를 갖게 될 것도 명확하다. AI 법제화가 진행되는 글로벌 환경에서 기업들이 해야 할 일은 분명하다. 단순히 AI 기술을 개발하는 것을 넘어 AI의 법적 위험을 줄이고 이를 체계적으로 관리할 수 있는 AI 관리 시스템을 구축하는 것이다. 이것이 기업이 글로벌 AI 경쟁에서도 지속 가능한 경쟁력을 확보하는 길이다.

2025.02.28 14:15법무법인 태평양 오세인

태평양 한 가운데서 포착된 '블랙홀'의 정체는

2021년 구글 지도에서 태평양 한 가운데 삼각형 모양의 어두운 구멍이 포착돼 큰 화제가 됐다. 과학전문매체 라이브사이언스는 태평양 한복판에서 발견된 검은 구멍의 비밀에 대해 18일(현지시간) 보도했다. 당시 이 사진은 온라인 커뮤니티 레딧에 공유되며 블랙홀 또는 극비 군사기지 등 다양한 추측을 낳았다. 하지만, 이 곳이 태평양 한가운데 있는 키리바시 공화국의 섬 중 하나인 보스톡 섬이라는 것이 확인됐다. 키리바시 공화국은 섬 33개로 구성된 작은 나라이다. 산호에 둘러싸인 보스톡 섬은 호주에서 동쪽으로 약 6천km 떨어져 있으며 면적이 0.25제곱킬로미터(㎢)에 불과하다. 이 섬은 왜 칠흑같이 새까만 블랙홀처럼 보이는 것일까? 라이브사이언스는 검은 색상은 섬에 빽빽하게 자리잡은 '피소니아'(Pisonia) 나무 때문이라고 밝혔다. 이 나무의 색상은 짙은 녹색이지만 밀도가 높게 빼곡히 심어져 있을 경우 지구 저궤도에서 봤을 때 훨씬 더 어둡게 보인다. 이 나무는 서로 너무 가깝게 자라기 때문에 다른 나무나 식물들이 그 사이에 뿌리를 내릴 수 없는 경우가 많다. 이유는 피소니아 나무가 너무 많은 빛을 차단하기 때문이다. 피소니아 나무는 새를 잡아먹는 '악마의 나무'로도 알려져 있다. 1971년 조사 결과에 따르면, 피소니아 나무의 울창한 잎사귀는 많은 바다새를 유혹하지만 나무의 끈적끈적한 씨앗이 새들의 깃털에 달라붙고 몸집이 작은 어린 새들의 경우 끈적한 씨앗 뭉치에 엉켜 움직일 수 없게 되면서 굶어죽기도 한다. 때문에 이 나무 아래에 새들의 뼈 더미가 쌓이는 경우가 있다. 이 섬은 러시아 탐험가들이 1820년 전에도 인간이 거주한 흔적이 없었고 그 이후에도 사람이 살지 않는 무인도다. 그 이유는 식수원이 없기 때문일 가능성이 크다고 해당 매체는 전했다.

2025.02.19 15:19이정현

[기고] 원본 데이터 AI 활용 특례, 신기술 혁신 속도와 수요 반영해야

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 개인정보보호위원회와 과학기술정보통신부는 지난해 4개 사업자들을 대상으로 자율주행 인공지능(AI) 시스템 고도화를 위한 영상정보 원본을 활용하는 실증특례를 지정했다. 조금 풀어서 설명하자면 자율주행 AI 학습에는 보행자의 얼굴, 위치, 차량번호 또는 개인정보가 포함된 주행영상 등 영상정보가 필요하다. 현행 개인정보 보호법상 AI 학습에 주행영상 등 영상정보를 활용하려면 정보주체의 동의를 받거나 해당 정보를 가명처리해야 한다. 당연히도 전자는 불가능하고 후자의 경우 보행자 인식률이 저하되는 등 정보의 가치가 떨어지게 된다. 이러한 상황을 타개할 수 있는 것이 규제샌드박스 실증특례 제도다. 이 제도는 사업자가 신기술을 활용한 새로운 서비스를 일정 조건 하에 시장에 우선 출시해서 시험, 검증하게끔 현행 규제 일부를 적용하지 않도록 허용해 준다. 사업자들은 이 실증특례 지정을 신청해서 허용받음으로써 강화된 안전조치 기준을 마련하고 개인정보보호위원회의 주기적 점검을 받도록 하는 등을 조건으로 가명처리하지 않은 영상데이터의 원본을 AI 학습에 활용할 수 있게 됐다. 매우 의미 있는 제도임에도 사업자들이 실증특례 제도를 적극적으로 이용하지 못하는 결정적인 이유가 있다. 규제에서 자유로워지는 것이 아니라 최대 4년의 기간 동안만 규제 적용을 유예 받을 뿐이기 때문이다. 유예 기간 내에 법령이 정비돼 관련 규제가 개선되지 않으면 해당 서비스는 다시 '임시허가'를 통해 시장에 출시해야 한다. 심지어는 유예 기간 중 처리해 왔던 방식에 따라 데이터를 처리하는 경우 법 위반으로 출시를 못하게 될 수도 있다. 개인정보보호위원회는 새해 주요 업무 추진계획 6대 핵심 추진과제 중 하나로 AI 시대에 부합하는 개인정보 법제를 정비하겠다고 공표한 바 있다. 그러면서 자율주행 AI 개발 등 가명처리만으로 연구 목적 달성이 곤란한 경우 원본 데이터 활용을 개인정보 심의, 의결 하에 허용하는 특례를 마련하겠다고 발표했다. 이는 현행 규제샌드박스 실증특례는 최대 4년 동안만 규제 적용을 유예해 준다는 한계를 극복하기 위한 조치로, 개인정보 보호법에 특례 규정을 신설해 AI 개발을 위한 원본 데이터 활용을 허용할 방침이다. 더불어 개인정보보호위원회의 심의·의결과 사후 점검 등의 조건을 둬 개인정보 보호도 함께 도모할 계획이다. AI 기반 기술과 시스템이 더욱 빠른 속도로 고도화돼 가고 있는 현 상황에서 AI 학습 목적의 원본 데이터 활용을 금지할 수 없다는 위원회의 결단으로 풀이돼 공감이 간다. 다만 추진계획에 따르면 이러한 내용이 담길 개인정보 보호법 개정안은 AI 개발 사업자의 '정당한 이익'이나 '공익' 등을 고려하도록 하고 있어 오히려 원본 데이터 활용이 예상외로 제약될 가능성이 있어 보인다. 추후 구체적인 개정안을 구체적으로 살펴봐야 하겠으나 신기술의 개발이 아닌 사회적 편익이나 공익을 고려해 특례를 허용할 경우 제도의 취지에도 불구하고 상당수의 AI 개발 사업은 이 특례 제도를 활용하기 어려워질 것이다. 위원회가 심결이나 사후 현장점검 등을 어떻게 운영할지도 특례 제도 활용에 있어서 매우 중요한 요소가 될 것으로 보인다. 우선 위원회가 업무 추진계획에서 밝힌 바와 같이 합리적이고 유연한 법 해석을 통해 신기술 변화와 현행 법 체계 간 간극을 완화하기 위해서는 위원회의 심결이 신속하게 이루어져야 할 것이다. 기존 규제샌드박스 실증특례는 유사 사례가 있는 경우 패스트트랙 제도를 통해 승인 기간을 평균 4~5개월에서 2개월로 단축해 운영하고 있는 상황이다. 심결 이후에도 위원회의 관리, 감독을 통해서도 사후 통제가 가능한 점을 감안할 때 심결은 가급적 간이하고 신속하게 이뤄질 필요가 있다. 위원회의 사후 관리, 감독도 지나치게 포괄적인 범위의 점검이나 자료제출 요구 등이 이뤄지지 않는지 검토가 필요하다. 심결이 간이하게 이뤄진다면 사후통제 기능이 어느 정도 작동해야 하겠으나 AI 개발 사업자 입장에서 사업 운영에 지장이 갈 정도로 관리, 감독 등이 이뤄진다면 사업자로서는 특례 제도를 고려할 실익이 없게 된다. 이 부분은 AI기본법의 제정 과정에서도 유사한 논란이 제기된 바 있다. 원본 데이터를 가명처리 없이 쓰도록 허용해 주는 특례 제도를 도입하더라도 어느 정도의 제한이 부여되어야 한다는 점은 충분히 공감한다. 다만 신기술 및 신산업 혁신 촉진을 도모하기 위해 도입되는 제도인 만큼 AI 개발 사업자들이 특례 제도를 활용할 '엄두'는 낼 수 있어야 한다. 사업자들의 애로와 현실을 충분히 반영한 합리적이고 유연한 법제도의 도입을 기대해 본다.

2025.02.03 10:17법무법인 태평양 상지영

[기고] AI 생성 결과물의 명암

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 생성형 인공지능(AI)의 발전은 창작 과정 전반에 혁신적인 변화를 가져오고 있다. AI는 텍스트, 이미지, 음악, 영상 등 다양한 콘텐츠를 생성할 수 있는 능력을 갖추고 있으며 이러한 기술은 창작자와 기업에게 새로운 기회를 제공하고 있다. 동시에 AI가 생성한 결과물에 대한 저작권 문제는 여전히 논란의 중심에 있다. AI는 창작 활동의 유용한 도구로, 과거에는 상상조차 어려웠던 방식으로 콘텐츠 제작을 가능하게 하고 있다. 누구나 간단한 입력만으로 고품질의 텍스트나 이미지를 생성할 수 있게 되면서 창작의 문턱이 크게 낮아졌다. 이는 소규모 창작자나 비전문가들에게 큰 이점을 제공하고 문화적 다양성과 창작물의 양적 증가를 이끄는 긍정적인 영향을 미치고 있다. 일례로 소규모 게임 개발자는 오픈AI '챗GPT'를 활용해 캐릭터별로 서사를 만들고 이를 조합해 스토리 라인을 구축할 수 있다. 또 그림 AI인 '미드저니'를 활용해 고품질의 캐릭터 및 배경 이미지를 제작하거나 음악 AI인 '주크박스'를 활용해 원하는 장르와 스타일의 음원을 생성하는 등 게임 개발에 있어 비용과 시간을 절약하는 것을 생각해 볼 수 있다. 이러한 AI 기반 도구는 전문적 기술 배경이 없는 일반 사용자에게도 창작의 문턱을 낮춰 보다 다양한 창작물이 등장하는 환경을 조성하는 데 기여한다. 그럼에도 AI 생성물에 대한 저작권 문제는 복잡하다. 저작권법의 핵심은 창작으로, 이는 인간의 창의적 노력과 아이디어에서 비롯된다. 그런데 AI는 인간의 창작적 개입 없이도 결과물을 생성할 수 있으며 이러한 경우 해당 결과물이 저작권 보호의 대상이 되는지에 대한 명확한 기준이 없다. 현재 대부분의 국가에서는 인간만이 저작권의 주체가 될 수 있다고 규정하고 있다. 이에 따라 AI가 생성한 결과물은 원칙적으로 저작권 보호를 받을 수 없다. 이는 AI를 활용하는 기업이나 개인들에게 법적 공백을 초래할 수 있다. 미국에서는 AI인 '창작 머신(Creativity machine)'이 생성한 작품인 '파라다이스로 가는 입구(A Recent Entrance to Paradise)'가 저작권 등록을 거절당한 사례가 있다. AI를 저작자로 표시해 AI 소유자의 업무상 저작물로 등록하고자 한 것이었는데 인간의 창작물이 아니라는 이유로 그 등록이 거절당한 것이다. 반면 AI와 인간의 협업으로 만들어진 작품의 경우 인간이 창작에 기여한 부분에 한해 저작권이 인정되기도 한다. 만화책 '여명의 자리야(Zarya of the Dawn)' 사례에서 미국 저작권청은 인간이 작성한 텍스트와 AI로 생성된 그림의 배열 및 조정을 편집 저작물로 인정했으나 AI가 생성한 그림 자체에는 저작권을 인정하지 않았다. 중국 법원에서는 AI가 생성한 이미지를 둘러싼 소송에서 원고가 프롬프트를 통해 이미지 제작에 창의적 기여를 했음을 인정해 저작물로 판단한 사례도 있다. 이는 프롬프트 입력 등 인간의 창의적 개입이 저작권 인정 여부의 핵심 기준이 될 수 있음을 보여준다. 국내에서는 아직 생성형 AI 저작권 문제에 대한 명확한 판결은 없지만 문화체육관광부가 지난 2023년 10월 발간한 생성형 AI 저작권 안내서에서는 인간만이 저작자가 될 수 있다고 밝혔다. 이에 따르면 AI 생성물 자체는 저작물로 보호되지 않으며 인간이 창작성을 부가한 경우에만 저작권 귀속 논의가 가능하다. 창작적 기여 여부와 그 정도는 법원의 판단에 따라 결정될 것이라는 입장이다. AI 생성물에 대해 저작권과 유사한 보호를 제공하거나 새로운 법적 지위를 도입하는 방안도 검토할 필요가 있다. 특히 현대미술의 난해함을 고려할 때 AI를 활용한 인간의 창의적 기여를 평가하는 명확한 기준을 마련해야 한다. 창작자의 권리와 기술 혁신의 조화를 이루는 법적 제도를 정립하는 것이 중요하다. AI 생성물은 창작의 가능성을 확장하며 우리의 삶에 혁신을 가져오고 있다. 다만 저작권 문제를 해결하지 않고서는 이러한 기술의 잠재력을 온전히 실현하기 어렵다. 법적, 윤리적 논의를 통해 AI 시대에 걸맞은 창작과 보호의 균형을 찾아야 한다. AI가 창작의 도구로 자리 잡는 과정에서 창작자와 기술 개발자 모두의 권리를 존중하는 법적 환경을 조성하는 것이 필수적이다.

2025.01.16 15:25법무법인 태평양 정상훈

[기고] 인공지능 기본법안 그 이후

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 지난해 노벨물리학상과 화학상 모두 인공지능(AI) 관련 연구자들에게 수여되며 AI에 대한 전세계적인 관심이 다시 한번 입증됐다. 특히 노벨물리학상을 수여받은 제프리 힌턴 캐나다 교수는 인간을 뛰어넘는 AI이 나올 것이라는 점을 예측하고 이후 그 위험성에 대해 다시 한번 경고를 해 세간의 화제가 됐다. AI 시대에 접어들면서 해당 기술로 인한 위험에 대한 관심도 증가하는 새해를 맞이하고 있다. 지난 2016년 알파고 등장 이후 AI에 대한 식었던 열망은 부활했다. 지난 2022년 '챗GPT' 등장으로 AI는 이제 우리 생활에서 편하게 접할 수 있는 서비스가 됐으며 요즘은 AI라는 단어가 포함되지 않은 광고를 찾아보기 힘들 정도의 시대에 접어들었다. AI가 실제 우리 생활을 편리하게 바꿔 주는 것인지 아니면 우리 생활을 위협하는지에 대한 질문이 제기되는 상황이다. 신기술의 등장은 언제나 우리 생활에 명과 암을 줬다. 우리의 선택은 그 중에서 편리한 점을 취하면서 위험을 최대한 줄이기 위한 노력의 과정이었던 것으로 생각된다. 인터넷 도입 당시와 유사하게 AI를 통한 편리함을 느끼지만 동시에 그 폐해에 대해서도 이야기를 하는 시대에 접어들게 됐다. 인터넷을 둘러싼 많은 법률관계들이 인터넷 등장 이후 장기간에 논의됐던 것과 같이 AI를 둘러싼 다양한 법률관계들도 점진적이지만 긍정적으로 발전할 것을 기대해 본다. AI 서비스에 대한 지원과 규제라는 두 마리 토끼를 잡기 위해 지난달 26일 국회는 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(AI기본법)'을 통과시켰다. 위 기본법안에는 AI 산업 활성화를 위한 산업 장려방안, AI 안전을 담보하기 위한 AI안전연구소 신설 등도 포함을 하고 있다. 이와 함께 사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI시스템(고영향 AI)에 대한 규제 및 생성형 인공지능에 대한 규제도 모두 포함됐다. 모두 주지하는 것과 같이 AI 자체는 선과 악을 구분할 수 없는 하나의 기술이다. 그럼에도 특정 목적과 영역에 사용하기 위해 개발된 AI와 생성형 AI(범용 AI)는 인간의 생명, 신체의 안전이나 기본권에 중대한 영향을 미칠 수 있다. 이에 따라 이들을 고영향 AI로 분류해 규제체계를 마련했으며 일반적으로 이용되는 생성형 또는 범용 AI의 경우에도 설명 의무 등을 부여하게 된 것이다. 그럼에도 특정 목적이나 특정 영역에 사용되는 AI 이외의 기타 유형 AI에도 분명 위험성은 존재한다. 다시 말해 제도적으로 정비를 해야 할 사항에 대해 기본법안을 통해 어느 정도 규제체계를 정비한 상황임에도 불구하고 일상적으로 발생할 문제에 대해서는 개별 논의가 필요하다. 또 우리가 주목해야 할 점은 AI 서비스에 대한 책임은 결국 구체적인 상황에서 정해져야 하는 것이며 이를 모두 서비스 사업자에게만 국한시킬 수는 없다는 것이다. 일례로 누군가가 수의를 입고 있는 모습을 딥페이크 기술로 합성해 게시할 경우 이에 대한 책임은 누가 져야 하는지에 대한 문제가 제기될 수 있다. 일각에서는 딥페이크 영상을 만들 수 있도록 서비스를 제공한 AI서비스 사업자에게 책임을 지게 해야 한다고 말하기도 한다. 그런데 인터넷 포털에서 명예훼손적인 글을 게재하는 경우 일차적으로 책임을 져야 하는 사람은 해당 이용자다. 위와 같은 사안에서도 그 일차적인 책임은 딥페이크 기술을 이용한 이용자여야 할 것으로 보인다. 다만 AI서비스 사업자들로서는 영상합성 기술에 대해 이용자들에게 경고를 하고 딥페이크로 인해 사람들이 속지 않도록 "해당 영상은 AI서비스 또는 기술을 통해서 생성됐다"고 알리는 역할을 하면 될 것으로 보인다. AI 서비스 또는 기술을 이용한 폐단은 향후에도 다수 발생할 수 있다. 이에 따라 개별적인 문제에 있어서 누가 책임을 우선 부담하는지, 이러한 폐단을 극복하기 위해 이용자들에게 어떠한 주의의무를 부과할 것인지, 또는 개별 인공지능에서 최소한의 어떠한 안전장치를 구현하도록 할 것인지 등에 대한 고찰이 필요하다. AI의 폐단만이 아니라 AI를 통한 생활의 편리함을 고려해 다양하고 구체적인 해결방안이 모색돼야 할 시점이다.

2025.01.03 15:59법무법인(유한) 태평양 윤주호

英 '매직서클' 출신 크리스 테일러, 법무법인 태평양 합류

법무법인 태평양이 글로벌 중재 역량 강화를 위해 영국 대형 로펌 출신 국제중재 전문가를 영입했다. 법무법인 태평양은 최근 영국 런던의 5대 대형로펌인 '매직서클' 중 하나인 앨런앤오버리의 크리스 테일러 외국변호사를 영입했다고 30일 밝혔다. 테일러 외국변호사는 영국 잉글랜드·웨일즈 변호사로 25년간 국제중재 분야에서 활동한 전문가다. 테일러 변호사는 지난 12년간 앨런앤오버리에서 파트너로 활동하며 싱가포르, 파리, 두바이, 런던 등 국제중재 허브를 중심으로 경험을 쌓았다. 특히 중동에서는 활동한 로펌의 첫 국제중재 파트너로 역할을 수행했다. 그는 건설, 에너지, 인프라, M&A, 금융 등 다양한 분야의 국제분쟁 사건을 담당하며 런던국제중재법원, 국제형사재판소 등 주요 중재기관의 규범에 따른 중재 절차를 진행한 바 있다. 최근에는 아시아 지역에서 국제중재 재판소 의장으로도 활동했다. 테일러 변호사는 태평양의 싱가포르와 서울 사무소를 오가며 업무를 수행할 예정이다. 태평양 관계자는 이번 영입에 대해 "대규모 국제분쟁은 주로 영국법이 적용되는 경우가 많다"며 "크리스 테일러 변호사의 합류로 복잡한 분쟁 사건에 더욱 효과적으로 대응할 수 있게 됐다"고 밝혔다.

2024.12.30 12:36조이환

"책임 있는 AI 활용 이끈다"…AIAPI-넷세이프, 뉴질랜드 온라인 안전 '강화'

아시아태평양 지역을 대표하는 인공지능(AI) 비영리기구(NGO)인 AI 아시아태평양기구(AIAPI)가 생성형 AI의 책임 있는 활용을 위해 뉴질랜드의 온라인 안전을 책임지는 NGO와 손을 잡았다. AI 아시아태평양기구는 최근 넷세이프와 함께 'AI와 온라인 안전 : 새로운 위험과 기회(Discussion Paper on AI and Online Safety: Emerging Risks and Opportunities)' 논의 리포트를 발간했다고 27일 밝혔다. 두 조직은 생성형 AI 기술의 책임 있는 활용과 온라인 해악 최소화를 위한 구체적인 정책 제안을 통해 뉴질랜드 내 온라인 안전 거버넌스 체계 강화에 나설 계획이다. 이번 리포트는 생성형 AI(GenAI)의 급속한 발전으로 전 세계 디지털 환경이 재편되는 상황에 대응하기 위한 목적으로 작성됐다. 특히 신기술이 온라인 환경에서 초래하는 ▲아동 성착취물(CSAM) ▲허위 정보 확산 ▲혐오 발언·사이버 괴롭힘 ▲AI 기반 사기 등 다양한 온라인 해악을 심층 분석했다. 이와 함께 여성, 아동, 소수자 커뮤니티에 대한 불균형적 피해와 기존 기술적·법적 안전장치의 한계를 지적하고 뉴질랜드를 포함한 역내 국가들에게 다층적인 대응 전략을 제안했다. 특히 보고서는 ▲공공 교육 캠페인 강화 ▲플랫폼 모니터링 및 AI 정렬 기술 활용 ▲심리·법적 지원 제도 확충 ▲국제 협력 네트워크 참여 등 온라인 안전을 위한 구체적 정책 과제를 담았다. 이러한 노력을 통해 AIAPI와 넷세이프는 뉴질랜드가 책임 있는 생성형 AI 거버넌스 모델을 구축하고 미래 지향적인 디지털 생태계로 발전해 나가도록 지원할 방침이다. 양 기관은 이미 뉴질랜드 현지 이해관계자 및 국제 전문가들과의 워크숍 및 토론회를 통해 다각적인 시각을 반영했다. 이러한 노력을 토대로 안전한 온라인 환경 조성을 위한 실질적인 가이드라인과 프레임워크를 마련하고 뉴질랜드 정부 및 민간 분야와 긴밀히 협력해 정책적 실행력을 높일 계획이다. AIAPI는 아시아태평양 지역 경제를 발전시키기 위해 책임 있는 AI 발전을 진흥하는 글로벌 비영리 조직으로, 학제 간 연구·인식 제고·국제 협력·정책 자문 활동을 통해 역내 경제 발전에 기여하고 있다. 넷세이프 이외에도 아시아개발은행(ADB), 미국 국제개발처(USAID), JP 모건 등과 협력하고 있으며 국내에서는 APEC기후센터와도 협업 중이다. 넷세이프는 뉴질랜드를 대표하는 온라인 안전 NGO로서 피해자 지원, 교육자료 개발 및 배포, 사이버 범죄 대응, 정책 제안 등 광범위한 활동을 펼치며 뉴질랜드 국민들의 안전한 인터넷 이용을 돕고 있다. 알렉스 토 AIAPI 고문과 브렌트 캐리 넷세이프 대표는 "''AI와 온라인 안전' 논의문은 양 기관의 협력 덕분에 발간될 수 있었다"며 "AI와 온라인 안전 간의 상호작용이 다면적으로 진화해 나가는 와중에 논의문이 앞으로도 뉴질랜드 및 아시아태평양 전역의 이해관계자들과의 대화·참여·협력을 촉진하기를 바란다"고 강조했다.

2024.12.27 09:45조이환

[기고] 야누스의 얼굴을 가진 인공지능

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 로마 신화에 '야누스'라는 신이 나온다. 출입문으로 드나드는 사람들을 보기 위해 앞뒤에 얼굴을 가진 출입문의 수호신으로 알려져 있다. 세상 만사의 시작을 지배하는 신이기도 해서 한해의 시작인 1월을 뜻하는 영어 단어 '제뉴어리(January)'에 그 흔적을 남기기도 했다. 다만 야누스는 앞과 뒤의 모습이 다른 두 얼굴을 가진 것으로 묘사돼 어떤 일의 양면성, 밝은 면과 어두운 면이 공존하는 것을 표현할 때도 쓰인다. 생성형 인공지능(AI) 기술이 발전하면서 상상 속에서만 가능해 보였던 일들이 현실이 되고 있다. AI 기술이 글 내용을 음성으로 읽어 주고, 음악을 만들고 이미지를 만들어 낸다. 실제로 연기하는 배우 없이 만들어낸 동영상이 크게 어색하지 않은 단계에 이르렀다. 이처럼 AI 기술이 빠른 속도로 발전하면서 AI에 대한 기대가 커지고 있다. 한편으로는 자칫 AI를 이용한 결과물로 인해 정보가 유통되는 생태계의 무결성이나 신뢰성에 영향을 미칠 수 있고, 이로 인해 잘못된 정보가 사실인 것처럼 유통되거나 소비자를 기만하는 등의 문제가 발생할 위험이 있다는 우려도 나온다. AI가 결과물을 생성해 내는 과정이 블랙박스처럼 돼 있고, AI를 통해 만들어낸 결과물이 실제 존재하는 것과 구별하기 어려울 정도라, AI를 이용해 생성하는 결과물을 법률적으로 어떻게 다룰 것인지에 대한 논의도 한창이다. 유럽연합(EU)은 AI법을 제정하며 AI 시스템이 적절한 추적과 설명이 가능한 방식으로 개발 및 사용되고, 인간이 AI 시스템과 상호작용하거나 소통하고 있다는 사실을 인지해야 한다는 '투명성 원칙'을 밝혔다. EU AI법은 이런 원칙에 따라 AI 시스템 제공자가 사람이 아닌 AI 시스템에 의해 결과물이 생성됐음을 감지할 수 있는 기술적 솔루션을 시스템에 내장하도록 했다. 이러한 기술적 솔루션에 더해 AI 기술로 만든 결과물이 기존의 인물, 장소 또는 사건과 현저히 유사해 보는 사람으로 하여금 실제 사실인 것처럼 잘못 인식하게 하는 딥페이크에 대해서는 해당 콘텐츠가 AI에 의해 생성된 것이라는 점을 배포자로 하여금 표시하도록 했다. 우리나라도 'AI 기술 등으로 만든 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등'을 '딥페이크 영상 등'이라 정의했다. 선거일 전 90일부터 선거일까지 선거운동을 위해 딥페이크 영상 등을 제작, 편집, 유포, 상영 또는 게시하는 행위를 하지 못하도록 선거법을 개정했다. 선거운동 기간이 아닌 때도 선거운동을 위해 딥페이크 영상 등을 제작, 편집, 유포, 상영 또는 게시할 때 선관위 규칙으로 정하는 바에 따라 AI 기술 등으로 만든 가상의 정보라는 사실을 명확하게 인식할 수 있도록 표시하게 했다. 선거운동의 자유를 최대한 보장하면서도 선거의 공정성을 확보하기 위해 AI 기술 등을 이용해 만든 콘텐츠라는 사실을 누구나 쉽게 알아 볼 수 있도록 표시할 의무를 둔 것이다. 최근 국회 소관 상임위를 통과한 AI기본법 제정안도 AI사업자가 생성형 AI 또는 이를 이용한 제품 또는 서비스를 제공하는 경우 그 결과물이 생성형 AI에 의해 생성됐다는 사실을 표시하도록 정했다. 또 AI시스템으로 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등의 결과물을 제공하는 경우 해당 결과물이 AI시스템에 의해 생성됐다는 사실을 이용자가 명확하게 인식할 수 있는 방식으로 고지 또는 표시하도록 했다. 다만 AI로 만든 모든 콘텐츠에 'AI를 이용해 생성한 결과물'이라는 표시를 할 필요가 있을지는 의문이다. 선거 등 정보의 출처가 중요한 경우, 또 개인의 인격권 침해가 될 수 있는 경우에는 그 콘텐츠가 AI에 의해 생성된 것인지를 표시할 필요가 있다. 그러나 이러한 경우가 아닌 모든 경우에 표시가 필요할지, 표시를 한다면 어떠한 방식으로 할 것인지, 동영상, 이미지, 텍스트 등 각 콘텐츠의 특징을 고려해 콘텐츠 자체를 향유하는데 방해가 되지 않는 방식이 무엇일지 등 여러 가지 논의가 필요해 보인다. 로마인들은 야누스의 얼굴 중 한쪽은 과거를, 다른 한쪽은 미래를 본다고 생각했다고 한다. 야누스를 세상일의 복잡한 측면, 과거와 미래를 함께 보며 균형을 잡아주는 수호신으로 생각했던 것 같다. AI이 가진 두 얼굴도 균형을 이룰 수 있도록 제정되는 법률이 야누스의 역할을 하기를 기대한다.

2024.12.23 17:23유재규

"동남아 AI 거버넌스 선도한다"…아세안-AI 아시아태평양기구 '맞손'

동남아시아 국가 연합(아세안)이 아시아태평양 국가들의 인공지능(AI) 발전을 목표로 하는 비정부기구와 손잡고 생성형 AI의 책임 있는 발전을 위한 공동 대응에 나섰다. AI 아시아태평양기구(AIAPI)는 아세안 과학기술혁신위원회(COSTI)가 지난 9월 개시한 '생성형 AI의 책임 있는 개발 및 활용' 프로젝트가 최근 공식 승인 및 문서화됐다고 12일 밝혔다. 이 프로젝트는 아세안이 주도하고 미국 국제개발처(USAID)의 지원을 받았으며 AIAPI는 실행 역할을 맡아 아세안 회원국들이 직면한 정책적 도전과제를 해결하는 가이드라인을 제시했다. 프로젝트의 결과물인 '아세안 내 생성형 AI의 책임 있는 개발 및 활용에 관한 논의문(Discussion Paper on the Responsible Development and Use of Generative AI in ASEAN)'은 올해 2월 아세안 과학기술혁신 장관회의에서 공식 승인된 후 지난 10일 공개됐다. 이 문서는 7가지 기본 AI 원칙, 자발적 AI 거버넌스 프레임워크, 국가 및 지역별 권고사항을 담고 있다. 또 '아세안 디지털 마스터플랜 2025'와 연계해 생성형 AI가 가져올 새로운 위험에 대응하기 위한 핵심 기반 문서로 활용될 예정이다. 논의 문서의 핵심 권고사항 중 하나는 AI 기술 지원 시설 설립과 재정 지원을 통해 아세안 회원국들의 생성형 AI 활용 전략을 제시하는 정책 허브를 구축하는 것이다. 이 시설은 안전한 구현과 책임 있는 기술 도입을 실질적으로 지원하며 각국이 발전 전략을 수립하는 과정에서 전문적인 자문을 제공할 전망이다. 또 문서는 동남아시아 전역에 걸쳐 AI 관련 거버넌스 체계의 조율과 협력을 강조한다. 이는 다양한 문화와 민감성을 지닌 지역 특성을 존중하면서도 기술 혁신과 책임 있는 AI 발전 사이의 균형을 찾기 위함이다. 이 프로젝트는 지난해 12월 두 차례 열린 워크숍에서 얻은 교훈을 바탕으로 추진됐다. 첫 번째 워크숍은 아세안 내 관계자들에 집중해 지역적 우선순위와 요구를 파악했으며 두 번째 워크숍은 역내 및 국제 전문가들의 폭넓은 참여를 이끌어내 글로벌 관점에서 이점과 위험을 균형 있게 조망했다. 이로써 생성형 AI 거버넌스에 대한 다층적 분석과 실용적 해결책 마련에 기여했다. 프로젝트의 실행을 맡은 AI 아시아태평양기구(AIAPI)는 아시아태평양 지역 경제를 발전시키기 위해 책임 있는 AI 개발과 채택을 촉진하는 글로벌 비영리 조직이다. 이 기구는 학제 간 연구, 인식 제고, 국제 협력, 정책 자문 활동을 통해 역내 경제 발전에 기여하고 있다. 또 아시아개발은행(ADB), 미국 국제개발처(USAID), JP 모건 등과 협력하면서 국내에서는 APEC기후센터(APCC)와도 협업 중이다. 켈리 포브스 AIAPI 대표는 "최근 발표한 논의문은 기술 발전 수준과 문화가 서로 상이한 동남아시아 지역에서 책임 있는 AI를 지원하려는 노력의 일환"이라며 "생성형 AI가 초래하는 도전 과제의 시급성을 드러내고 경제·교육·사회적 발전을 위해 AI를 활용할 필요성을 강조하기 위해 발표됐다"고 말했다. 이어 그는 "이 프로젝트는 포용·미래지향적인 AI 발전을 위해 현실적인 정책 제언을 제공하고 국제협력을 촉진하며 이해관계자 간 참여를 장려하는 등 우리가 보인 지속적 노력의 결과"라고 강조했다.

2024.12.12 17:30조이환

[기고] AI 발전과 아동·청소년 보호

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)의 비약적인 발전은 우리의 일상생활에 깊숙이 스며들며 효율성과 편리함을 극대화하고 있다. 개인화된 추천 시스템부터 의료, 교육, 공공서비스에 이르기까지 우리가 직면한 많은 문제를 해결하는 데 기여하고 있다. 그럼에도 눈부신 기술발전의 이면에 존재하는 부작용을 간과할 수 없다. 특히 AI 기술발전이 아동·청소년처럼 기술적 맥락에 취약한 집단에 대해 미칠 영향에 대한 진지한 고민이 필요하다. 오늘날 소셜 네트워크 서비스(SNS)는 단순한 소통의 매개체를 뛰어넘어 거대한 상업적 플랫폼이 됐다. 주요 SNS 기업들은 사용자의 이용패턴, 관심사 등을 분석해 AI 알고리즘에 학습시켜 광고를 포함한 콘텐츠를 추천하는 서비스를 주 수익모델로 삼고 있다. 그런데 이러한 과정에서 대규모의 개인정보 및 데이터 수집과 분석이 이루어지기 때문에 프라이버시와 개인정보 침해 우려가 상존한다. 특히 아동·청소년의 의사결정과 정서에 부정적 영향을 미칠 가능성이 높다. 아동·청소년은 자신이 보는 콘텐츠와 광고가 어떤 의도로 설계되었는지 이해하기 어렵고 이는 무절제한 소비, 유해하거나 부적절한 콘텐츠에 대한 노출, 정체성 혼란과 같은 부작용으로 이어질 수 있기 때문이다. 세계 여러 나라에서는 이같은 문제의식을 기반으로 디지털 환경에서 아동·청소년을 보호하기 위한 방안을 모색하고 있다. 최근 호주가 세계 최초로 16세 미만 미성년자의 SNS 이용을 전면 금지하고 이를 위반한 업체에게 최대 450억원의 벌금을 부과하기로 하는 강력한 법안을 통과시켜 화제가 됐다. 호주는 지난 2022년 1월부터 시행된 '온라인 안전법 2021(Online Safety Act 2021)'에서 '아동을 대상으로 하는 사이버 폭력 자료'를 규정하고 서비스제공자에게 관련 자료를 최소화하기 위한 조치의무를 부과하고 있다. 영국에서는 지난 2017년 몰리 러셀이라는 14세 아동의 자살로 아동에 대한 SNS의 책임에 관한 논의가 촉발된 바 있다. 약 6년간의 논의 끝에 지난 2023년 10월 '온라인 안전법 2023(Online Safety Act 2023)'이 제정 및 공표됐다. 이 법에서는 아동성착취∙성학대 등 범죄에 해당하는 불법콘텐츠와 자살이나 자해, 혐오나 사이버괴롭힘, 그밖에 심각한 위해를 초래할 가능성이 있는 유해콘텐츠를 규정하고 서비스제공자가 불법∙유해콘텐츠를 발견하면 신속히 삭제 또는 차단하도록 했다. 미국 상원은 지난 7월 30일 '아동 온라인 안전법안(KOSA)'과 '어린이 및 10대 온라인 프라이버시 보호법 개정안(COPPA 2.0)'을 묶은 입법 패키지(KOSPA)를 의결했다. 'KOSPA'는 아직 하원 통과를 남겨두고 있지만 미국에서 지난 1998년 제정된 'COPPA' 이후 수십년 만에 연방 차원에서 온라인 아동보호를 위한 주요 법안의 제정을 추진한 것이라는 점에서 의미가 있다. 'KOSA'는 17세 미만 미성년자가 사용할 가능성이 큰 온라인 플랫폼에 대해 ▼정신건강 장애 ▼중독 ▼정신적·신체적 폭력 및 괴롭힘 ▼불법 약물 관련 홍보 및 마케팅 ▼성적 착취 및 학대 ▼약탈적 및 기만적 마케팅 또는 금전적 피해 등 미성년자에게 발생할 수 있는 특정 유해 요소들을 완화하기 위한 조치를 취했다. 합리적인 조치를 취해야 한다는 '주의의무(duty of care)'를 부과하면서 서비스제공자의 관리책임을 콘텐츠 자체가 아니라 서비스의 설계를 중심으로 구성했다는 것이 특징이다. 'COPPA 2.0'은 지난 1998년 제정된 'COPPA'의 개정안으로, 법 적용을 받는 미성년자의 최소연령을 13세에서 16세로 상향해 17세 미만 사용자의 개인정보를 동의없이 수집할 수 없도록 규정하고 아동·청소년을 대상으로 한 맞춤형 광고를 금지하며 '지우기 버튼(Eraser Button)'을 도입해 아동·청소년이 본인의 개인정보를 삭제할 수 있는 기능 제공을 의무화했다. 또 현행법의 '실제 인지(actual knowledge)' 기준을 수정해 플랫폼이 사용자가 미성년자임을 몰랐다는 주장을 할 수 없도록 했다. 국내 법상 디지털 환경에서 아동·청소년을 보호하기 위한 별도의 법령이 존재하지는 않는다. 다만 개인정보보호법상 만 14세 미만 아동의 개인정보처리를 위해서는 법정대리인의 동의를 받도록 하는 규정(제22조의 2), 아동·청소년의 개인정보 처리자를 위한 가이드라인(개인정보보호위원회, 2022. 7. 22.), 만 14세 미만 아동에게 맞춤형 광고를 제공하려면 법정대리인의 동의를 받도록 하는 조치(개인정보보호위원회, 맞춤형 광고에 활용되는 온라인 행태정보 보호를 위한 정책방안, 2024. 1.)들을 마련해 나가고 있는 것으로 보인다. 아동·청소년의 취약성 및 보호필요성을 고려하면 이들에게 AI에 기반한 서비스를 제공하는 사업자에게 상대적으로 많은 책임을 부여할 수밖에 없게 된다. 해외의 규제 흐름도 전반적으로 그러한 방향인 것으로 보인다. 그럼에도 이에 대해서는 표현의 자유 침해, 콘텐츠 검열 가능성 등 위헌적 요소가 존재한다는 비판이 대립하고 있어 지속적인 논의와 연구가 필요하다. 더 나아가 아동·청소년의 권리를 보호하는 규제를 설계하기 위해서는 현대 사회의 디지털 환경이 아동·청소년의 발달에 필수적인 조건이며 알권리와 참여권 실현에 긍정적 역할을 할 수 있다는 점, 아동·청소년 이용자가 단지 피해자에 머무는 것이 아니라 쉽게 가해자의 지위에 놓일 수 있다는 점까지 종합해 섬세한 접근이 필요할 것이다.

2024.12.08 13:09법무법인 태평양 노은영

태평양 박종백 변호사 "가상자산 2차 입법, 미래 준비하는 초석이 돼야"

법무법인 태평양의 박종백 변호사는 28일 국회에서 열린 '가상자산산업 및 블록체인 혁신을 위한 2차 입법 과제 토론회'에 발제자로 나서 한국 가상자산 법체계의 현황과 한계를 지적했다. 박종백 변호사는 "현재 한국의 가상자산 법체계는 이용자 보호에 지나치게 치중해 혁신의 가능성을 가로막고 있다"며 "2차 입법은 보다 균형 잡힌 접근이 필요하다"고 강조했다. 박 변호사는 '2차 입법'이라는 용어 자체에 대한 문제를 제기하며 "이 표현은 공식적인 법률 용어가 아닌 관행적인 용어로 그 자체가 현 입법의 미완성을 반영한다"고 지적했다. 그는 이어 "현행 가상자산 법체계는 특금법과 가상자산 이용자 보호법이 중심을 이루고 있지만 두 법은 제한적이고 과잉 규제적인 성격을 띠고 있다"고 설명했다. 이와 함께 "현재 법은 가상자산 산업이 급변하는 현실에 적합하지 않은 경우가 많다. 특히 이용자 보호와 시장 건전성은 강조되었지만 혁신을 담아내지 못하고 있다. 2차 입법은 단순히 규제를 추가하는 것이 아니라 혁신을 지원하고 글로벌 스탠다드에 부합하는 방향으로 설계돼야 한다"라는 설명도 이어졌다. 박종백 변호사는 한국 가상자산 시장의 구조적 문제점을 진단하며 "현재 한국 시장은 리테일 투자자 중심으로 운영되고 있어 글로벌 경쟁에서 뒤처지고 있다"고 말했다. 이어서 "법인 고객이 시장에 참여할 수 없는 구조는 글로벌 자본과의 연결을 차단하고 있으며 이는 시장의 규모와 혁신성을 제한하는 결과를 낳고 있다"고 말해 눈길을 끌었다. 박 변호사는 가상자산 이용자법의 향후 입법방안을 제시하기도 했다. 먼저 "가상자산, 블록체인, 스마트 컨트랙트 등 핵심 용어를 명확히 정의해야 한다. 현행법은 디지털 자산의 개념을 충분히 반영하지 못하고 있으며, 이로 인해 게임 아이템이나 선불전자지급수단과 같은 영역이 불명확하게 처리되고 있다"라고 지적했다. 이어서 "발행, 인수, 시장조성자 등 다양한 비즈니스 모델을 아우르는 규제를 설계해야 한다"라고 말하고 "매매 가격의 공정성을 보장하고, 이해 상충 방지와 통합 공시 시스템을 통해 정보 비대칭 문제를 해소해야 한다"고 시장 건정성을 확보해야 한다고 제언했다. 박종백 변호사는 "이용자 보호만을 강조한 기존의 접근법은 시장 참여자들의 요구를 충분히 반영하지 못한다"며 "혁신을 담보하면서도 공정성과 투명성을 보장하는 규제가 필요하다"고 주장했다. 한국 가상자산 시장의 글로벌 경쟁력을 높이기 위한 방안으로 국제 표준과의 연계도 강조했다. 박 변호사는 "EU의 미카(MiCA)와 같은 글로벌 규제 표준을 참고해 법체계를 정비해야 하며 글로벌 프로젝트가 한국 시장에 진입할 수 있는 명확하고 공정한 규제 환경을 마련해야 한다"고 말했다. 특히 리버스 인카니이션(외국 사업자가 국내에서 별도의 인가 없이 이용자의 요청에 따라 서비스를 제공하는 것)과 관련해 "현재 한국 법체계는 명확성이 부족하며, 이는 외국 사업자들에게 큰 장애물이 되고 있다"고 지적했다. 그는 "리버스 인카니이션을 포함해 상호 인정 제도와 같은 글로벌 규제 사례를 참고해 한국 시장의 투명성과 개방성을 높일 필요가 있다"라며 발제를 마쳤다.

2024.11.28 15:49김한준

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

대기업 유통·이커머스 뒤바뀐 처지..."규제 풀어야 산다"

[르포] 골프 코치에서 피부 상담까지…일상 파고든 AI, AWS서밋에서 만난다

허희수 SPC "韓서 40년된 배스킨라빈스, 아이스크림 그 이상 브랜드로 도약"

"관광이냐, 안보냐"...'지도 반출' 결정 일시 보류

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현