• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'태평양'통합검색 결과 입니다. (56건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

태평양 한 가운데서 포착된 '블랙홀'의 정체는

2021년 구글 지도에서 태평양 한 가운데 삼각형 모양의 어두운 구멍이 포착돼 큰 화제가 됐다. 과학전문매체 라이브사이언스는 태평양 한복판에서 발견된 검은 구멍의 비밀에 대해 18일(현지시간) 보도했다. 당시 이 사진은 온라인 커뮤니티 레딧에 공유되며 블랙홀 또는 극비 군사기지 등 다양한 추측을 낳았다. 하지만, 이 곳이 태평양 한가운데 있는 키리바시 공화국의 섬 중 하나인 보스톡 섬이라는 것이 확인됐다. 키리바시 공화국은 섬 33개로 구성된 작은 나라이다. 산호에 둘러싸인 보스톡 섬은 호주에서 동쪽으로 약 6천km 떨어져 있으며 면적이 0.25제곱킬로미터(㎢)에 불과하다. 이 섬은 왜 칠흑같이 새까만 블랙홀처럼 보이는 것일까? 라이브사이언스는 검은 색상은 섬에 빽빽하게 자리잡은 '피소니아'(Pisonia) 나무 때문이라고 밝혔다. 이 나무의 색상은 짙은 녹색이지만 밀도가 높게 빼곡히 심어져 있을 경우 지구 저궤도에서 봤을 때 훨씬 더 어둡게 보인다. 이 나무는 서로 너무 가깝게 자라기 때문에 다른 나무나 식물들이 그 사이에 뿌리를 내릴 수 없는 경우가 많다. 이유는 피소니아 나무가 너무 많은 빛을 차단하기 때문이다. 피소니아 나무는 새를 잡아먹는 '악마의 나무'로도 알려져 있다. 1971년 조사 결과에 따르면, 피소니아 나무의 울창한 잎사귀는 많은 바다새를 유혹하지만 나무의 끈적끈적한 씨앗이 새들의 깃털에 달라붙고 몸집이 작은 어린 새들의 경우 끈적한 씨앗 뭉치에 엉켜 움직일 수 없게 되면서 굶어죽기도 한다. 때문에 이 나무 아래에 새들의 뼈 더미가 쌓이는 경우가 있다. 이 섬은 러시아 탐험가들이 1820년 전에도 인간이 거주한 흔적이 없었고 그 이후에도 사람이 살지 않는 무인도다. 그 이유는 식수원이 없기 때문일 가능성이 크다고 해당 매체는 전했다.

2025.02.19 15:19이정현

[기고] 원본 데이터 AI 활용 특례, 신기술 혁신 속도와 수요 반영해야

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 개인정보보호위원회와 과학기술정보통신부는 지난해 4개 사업자들을 대상으로 자율주행 인공지능(AI) 시스템 고도화를 위한 영상정보 원본을 활용하는 실증특례를 지정했다. 조금 풀어서 설명하자면 자율주행 AI 학습에는 보행자의 얼굴, 위치, 차량번호 또는 개인정보가 포함된 주행영상 등 영상정보가 필요하다. 현행 개인정보 보호법상 AI 학습에 주행영상 등 영상정보를 활용하려면 정보주체의 동의를 받거나 해당 정보를 가명처리해야 한다. 당연히도 전자는 불가능하고 후자의 경우 보행자 인식률이 저하되는 등 정보의 가치가 떨어지게 된다. 이러한 상황을 타개할 수 있는 것이 규제샌드박스 실증특례 제도다. 이 제도는 사업자가 신기술을 활용한 새로운 서비스를 일정 조건 하에 시장에 우선 출시해서 시험, 검증하게끔 현행 규제 일부를 적용하지 않도록 허용해 준다. 사업자들은 이 실증특례 지정을 신청해서 허용받음으로써 강화된 안전조치 기준을 마련하고 개인정보보호위원회의 주기적 점검을 받도록 하는 등을 조건으로 가명처리하지 않은 영상데이터의 원본을 AI 학습에 활용할 수 있게 됐다. 매우 의미 있는 제도임에도 사업자들이 실증특례 제도를 적극적으로 이용하지 못하는 결정적인 이유가 있다. 규제에서 자유로워지는 것이 아니라 최대 4년의 기간 동안만 규제 적용을 유예 받을 뿐이기 때문이다. 유예 기간 내에 법령이 정비돼 관련 규제가 개선되지 않으면 해당 서비스는 다시 '임시허가'를 통해 시장에 출시해야 한다. 심지어는 유예 기간 중 처리해 왔던 방식에 따라 데이터를 처리하는 경우 법 위반으로 출시를 못하게 될 수도 있다. 개인정보보호위원회는 새해 주요 업무 추진계획 6대 핵심 추진과제 중 하나로 AI 시대에 부합하는 개인정보 법제를 정비하겠다고 공표한 바 있다. 그러면서 자율주행 AI 개발 등 가명처리만으로 연구 목적 달성이 곤란한 경우 원본 데이터 활용을 개인정보 심의, 의결 하에 허용하는 특례를 마련하겠다고 발표했다. 이는 현행 규제샌드박스 실증특례는 최대 4년 동안만 규제 적용을 유예해 준다는 한계를 극복하기 위한 조치로, 개인정보 보호법에 특례 규정을 신설해 AI 개발을 위한 원본 데이터 활용을 허용할 방침이다. 더불어 개인정보보호위원회의 심의·의결과 사후 점검 등의 조건을 둬 개인정보 보호도 함께 도모할 계획이다. AI 기반 기술과 시스템이 더욱 빠른 속도로 고도화돼 가고 있는 현 상황에서 AI 학습 목적의 원본 데이터 활용을 금지할 수 없다는 위원회의 결단으로 풀이돼 공감이 간다. 다만 추진계획에 따르면 이러한 내용이 담길 개인정보 보호법 개정안은 AI 개발 사업자의 '정당한 이익'이나 '공익' 등을 고려하도록 하고 있어 오히려 원본 데이터 활용이 예상외로 제약될 가능성이 있어 보인다. 추후 구체적인 개정안을 구체적으로 살펴봐야 하겠으나 신기술의 개발이 아닌 사회적 편익이나 공익을 고려해 특례를 허용할 경우 제도의 취지에도 불구하고 상당수의 AI 개발 사업은 이 특례 제도를 활용하기 어려워질 것이다. 위원회가 심결이나 사후 현장점검 등을 어떻게 운영할지도 특례 제도 활용에 있어서 매우 중요한 요소가 될 것으로 보인다. 우선 위원회가 업무 추진계획에서 밝힌 바와 같이 합리적이고 유연한 법 해석을 통해 신기술 변화와 현행 법 체계 간 간극을 완화하기 위해서는 위원회의 심결이 신속하게 이루어져야 할 것이다. 기존 규제샌드박스 실증특례는 유사 사례가 있는 경우 패스트트랙 제도를 통해 승인 기간을 평균 4~5개월에서 2개월로 단축해 운영하고 있는 상황이다. 심결 이후에도 위원회의 관리, 감독을 통해서도 사후 통제가 가능한 점을 감안할 때 심결은 가급적 간이하고 신속하게 이뤄질 필요가 있다. 위원회의 사후 관리, 감독도 지나치게 포괄적인 범위의 점검이나 자료제출 요구 등이 이뤄지지 않는지 검토가 필요하다. 심결이 간이하게 이뤄진다면 사후통제 기능이 어느 정도 작동해야 하겠으나 AI 개발 사업자 입장에서 사업 운영에 지장이 갈 정도로 관리, 감독 등이 이뤄진다면 사업자로서는 특례 제도를 고려할 실익이 없게 된다. 이 부분은 AI기본법의 제정 과정에서도 유사한 논란이 제기된 바 있다. 원본 데이터를 가명처리 없이 쓰도록 허용해 주는 특례 제도를 도입하더라도 어느 정도의 제한이 부여되어야 한다는 점은 충분히 공감한다. 다만 신기술 및 신산업 혁신 촉진을 도모하기 위해 도입되는 제도인 만큼 AI 개발 사업자들이 특례 제도를 활용할 '엄두'는 낼 수 있어야 한다. 사업자들의 애로와 현실을 충분히 반영한 합리적이고 유연한 법제도의 도입을 기대해 본다.

2025.02.03 10:17법무법인 태평양 상지영

[기고] AI 생성 결과물의 명암

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 생성형 인공지능(AI)의 발전은 창작 과정 전반에 혁신적인 변화를 가져오고 있다. AI는 텍스트, 이미지, 음악, 영상 등 다양한 콘텐츠를 생성할 수 있는 능력을 갖추고 있으며 이러한 기술은 창작자와 기업에게 새로운 기회를 제공하고 있다. 동시에 AI가 생성한 결과물에 대한 저작권 문제는 여전히 논란의 중심에 있다. AI는 창작 활동의 유용한 도구로, 과거에는 상상조차 어려웠던 방식으로 콘텐츠 제작을 가능하게 하고 있다. 누구나 간단한 입력만으로 고품질의 텍스트나 이미지를 생성할 수 있게 되면서 창작의 문턱이 크게 낮아졌다. 이는 소규모 창작자나 비전문가들에게 큰 이점을 제공하고 문화적 다양성과 창작물의 양적 증가를 이끄는 긍정적인 영향을 미치고 있다. 일례로 소규모 게임 개발자는 오픈AI '챗GPT'를 활용해 캐릭터별로 서사를 만들고 이를 조합해 스토리 라인을 구축할 수 있다. 또 그림 AI인 '미드저니'를 활용해 고품질의 캐릭터 및 배경 이미지를 제작하거나 음악 AI인 '주크박스'를 활용해 원하는 장르와 스타일의 음원을 생성하는 등 게임 개발에 있어 비용과 시간을 절약하는 것을 생각해 볼 수 있다. 이러한 AI 기반 도구는 전문적 기술 배경이 없는 일반 사용자에게도 창작의 문턱을 낮춰 보다 다양한 창작물이 등장하는 환경을 조성하는 데 기여한다. 그럼에도 AI 생성물에 대한 저작권 문제는 복잡하다. 저작권법의 핵심은 창작으로, 이는 인간의 창의적 노력과 아이디어에서 비롯된다. 그런데 AI는 인간의 창작적 개입 없이도 결과물을 생성할 수 있으며 이러한 경우 해당 결과물이 저작권 보호의 대상이 되는지에 대한 명확한 기준이 없다. 현재 대부분의 국가에서는 인간만이 저작권의 주체가 될 수 있다고 규정하고 있다. 이에 따라 AI가 생성한 결과물은 원칙적으로 저작권 보호를 받을 수 없다. 이는 AI를 활용하는 기업이나 개인들에게 법적 공백을 초래할 수 있다. 미국에서는 AI인 '창작 머신(Creativity machine)'이 생성한 작품인 '파라다이스로 가는 입구(A Recent Entrance to Paradise)'가 저작권 등록을 거절당한 사례가 있다. AI를 저작자로 표시해 AI 소유자의 업무상 저작물로 등록하고자 한 것이었는데 인간의 창작물이 아니라는 이유로 그 등록이 거절당한 것이다. 반면 AI와 인간의 협업으로 만들어진 작품의 경우 인간이 창작에 기여한 부분에 한해 저작권이 인정되기도 한다. 만화책 '여명의 자리야(Zarya of the Dawn)' 사례에서 미국 저작권청은 인간이 작성한 텍스트와 AI로 생성된 그림의 배열 및 조정을 편집 저작물로 인정했으나 AI가 생성한 그림 자체에는 저작권을 인정하지 않았다. 중국 법원에서는 AI가 생성한 이미지를 둘러싼 소송에서 원고가 프롬프트를 통해 이미지 제작에 창의적 기여를 했음을 인정해 저작물로 판단한 사례도 있다. 이는 프롬프트 입력 등 인간의 창의적 개입이 저작권 인정 여부의 핵심 기준이 될 수 있음을 보여준다. 국내에서는 아직 생성형 AI 저작권 문제에 대한 명확한 판결은 없지만 문화체육관광부가 지난 2023년 10월 발간한 생성형 AI 저작권 안내서에서는 인간만이 저작자가 될 수 있다고 밝혔다. 이에 따르면 AI 생성물 자체는 저작물로 보호되지 않으며 인간이 창작성을 부가한 경우에만 저작권 귀속 논의가 가능하다. 창작적 기여 여부와 그 정도는 법원의 판단에 따라 결정될 것이라는 입장이다. AI 생성물에 대해 저작권과 유사한 보호를 제공하거나 새로운 법적 지위를 도입하는 방안도 검토할 필요가 있다. 특히 현대미술의 난해함을 고려할 때 AI를 활용한 인간의 창의적 기여를 평가하는 명확한 기준을 마련해야 한다. 창작자의 권리와 기술 혁신의 조화를 이루는 법적 제도를 정립하는 것이 중요하다. AI 생성물은 창작의 가능성을 확장하며 우리의 삶에 혁신을 가져오고 있다. 다만 저작권 문제를 해결하지 않고서는 이러한 기술의 잠재력을 온전히 실현하기 어렵다. 법적, 윤리적 논의를 통해 AI 시대에 걸맞은 창작과 보호의 균형을 찾아야 한다. AI가 창작의 도구로 자리 잡는 과정에서 창작자와 기술 개발자 모두의 권리를 존중하는 법적 환경을 조성하는 것이 필수적이다.

2025.01.16 15:25법무법인 태평양 정상훈

[기고] 인공지능 기본법안 그 이후

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 지난해 노벨물리학상과 화학상 모두 인공지능(AI) 관련 연구자들에게 수여되며 AI에 대한 전세계적인 관심이 다시 한번 입증됐다. 특히 노벨물리학상을 수여받은 제프리 힌턴 캐나다 교수는 인간을 뛰어넘는 AI이 나올 것이라는 점을 예측하고 이후 그 위험성에 대해 다시 한번 경고를 해 세간의 화제가 됐다. AI 시대에 접어들면서 해당 기술로 인한 위험에 대한 관심도 증가하는 새해를 맞이하고 있다. 지난 2016년 알파고 등장 이후 AI에 대한 식었던 열망은 부활했다. 지난 2022년 '챗GPT' 등장으로 AI는 이제 우리 생활에서 편하게 접할 수 있는 서비스가 됐으며 요즘은 AI라는 단어가 포함되지 않은 광고를 찾아보기 힘들 정도의 시대에 접어들었다. AI가 실제 우리 생활을 편리하게 바꿔 주는 것인지 아니면 우리 생활을 위협하는지에 대한 질문이 제기되는 상황이다. 신기술의 등장은 언제나 우리 생활에 명과 암을 줬다. 우리의 선택은 그 중에서 편리한 점을 취하면서 위험을 최대한 줄이기 위한 노력의 과정이었던 것으로 생각된다. 인터넷 도입 당시와 유사하게 AI를 통한 편리함을 느끼지만 동시에 그 폐해에 대해서도 이야기를 하는 시대에 접어들게 됐다. 인터넷을 둘러싼 많은 법률관계들이 인터넷 등장 이후 장기간에 논의됐던 것과 같이 AI를 둘러싼 다양한 법률관계들도 점진적이지만 긍정적으로 발전할 것을 기대해 본다. AI 서비스에 대한 지원과 규제라는 두 마리 토끼를 잡기 위해 지난달 26일 국회는 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(AI기본법)'을 통과시켰다. 위 기본법안에는 AI 산업 활성화를 위한 산업 장려방안, AI 안전을 담보하기 위한 AI안전연구소 신설 등도 포함을 하고 있다. 이와 함께 사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI시스템(고영향 AI)에 대한 규제 및 생성형 인공지능에 대한 규제도 모두 포함됐다. 모두 주지하는 것과 같이 AI 자체는 선과 악을 구분할 수 없는 하나의 기술이다. 그럼에도 특정 목적과 영역에 사용하기 위해 개발된 AI와 생성형 AI(범용 AI)는 인간의 생명, 신체의 안전이나 기본권에 중대한 영향을 미칠 수 있다. 이에 따라 이들을 고영향 AI로 분류해 규제체계를 마련했으며 일반적으로 이용되는 생성형 또는 범용 AI의 경우에도 설명 의무 등을 부여하게 된 것이다. 그럼에도 특정 목적이나 특정 영역에 사용되는 AI 이외의 기타 유형 AI에도 분명 위험성은 존재한다. 다시 말해 제도적으로 정비를 해야 할 사항에 대해 기본법안을 통해 어느 정도 규제체계를 정비한 상황임에도 불구하고 일상적으로 발생할 문제에 대해서는 개별 논의가 필요하다. 또 우리가 주목해야 할 점은 AI 서비스에 대한 책임은 결국 구체적인 상황에서 정해져야 하는 것이며 이를 모두 서비스 사업자에게만 국한시킬 수는 없다는 것이다. 일례로 누군가가 수의를 입고 있는 모습을 딥페이크 기술로 합성해 게시할 경우 이에 대한 책임은 누가 져야 하는지에 대한 문제가 제기될 수 있다. 일각에서는 딥페이크 영상을 만들 수 있도록 서비스를 제공한 AI서비스 사업자에게 책임을 지게 해야 한다고 말하기도 한다. 그런데 인터넷 포털에서 명예훼손적인 글을 게재하는 경우 일차적으로 책임을 져야 하는 사람은 해당 이용자다. 위와 같은 사안에서도 그 일차적인 책임은 딥페이크 기술을 이용한 이용자여야 할 것으로 보인다. 다만 AI서비스 사업자들로서는 영상합성 기술에 대해 이용자들에게 경고를 하고 딥페이크로 인해 사람들이 속지 않도록 "해당 영상은 AI서비스 또는 기술을 통해서 생성됐다"고 알리는 역할을 하면 될 것으로 보인다. AI 서비스 또는 기술을 이용한 폐단은 향후에도 다수 발생할 수 있다. 이에 따라 개별적인 문제에 있어서 누가 책임을 우선 부담하는지, 이러한 폐단을 극복하기 위해 이용자들에게 어떠한 주의의무를 부과할 것인지, 또는 개별 인공지능에서 최소한의 어떠한 안전장치를 구현하도록 할 것인지 등에 대한 고찰이 필요하다. AI의 폐단만이 아니라 AI를 통한 생활의 편리함을 고려해 다양하고 구체적인 해결방안이 모색돼야 할 시점이다.

2025.01.03 15:59법무법인(유한) 태평양 윤주호

英 '매직서클' 출신 크리스 테일러, 법무법인 태평양 합류

법무법인 태평양이 글로벌 중재 역량 강화를 위해 영국 대형 로펌 출신 국제중재 전문가를 영입했다. 법무법인 태평양은 최근 영국 런던의 5대 대형로펌인 '매직서클' 중 하나인 앨런앤오버리의 크리스 테일러 외국변호사를 영입했다고 30일 밝혔다. 테일러 외국변호사는 영국 잉글랜드·웨일즈 변호사로 25년간 국제중재 분야에서 활동한 전문가다. 테일러 변호사는 지난 12년간 앨런앤오버리에서 파트너로 활동하며 싱가포르, 파리, 두바이, 런던 등 국제중재 허브를 중심으로 경험을 쌓았다. 특히 중동에서는 활동한 로펌의 첫 국제중재 파트너로 역할을 수행했다. 그는 건설, 에너지, 인프라, M&A, 금융 등 다양한 분야의 국제분쟁 사건을 담당하며 런던국제중재법원, 국제형사재판소 등 주요 중재기관의 규범에 따른 중재 절차를 진행한 바 있다. 최근에는 아시아 지역에서 국제중재 재판소 의장으로도 활동했다. 테일러 변호사는 태평양의 싱가포르와 서울 사무소를 오가며 업무를 수행할 예정이다. 태평양 관계자는 이번 영입에 대해 "대규모 국제분쟁은 주로 영국법이 적용되는 경우가 많다"며 "크리스 테일러 변호사의 합류로 복잡한 분쟁 사건에 더욱 효과적으로 대응할 수 있게 됐다"고 밝혔다.

2024.12.30 12:36조이환

"책임 있는 AI 활용 이끈다"…AIAPI-넷세이프, 뉴질랜드 온라인 안전 '강화'

아시아태평양 지역을 대표하는 인공지능(AI) 비영리기구(NGO)인 AI 아시아태평양기구(AIAPI)가 생성형 AI의 책임 있는 활용을 위해 뉴질랜드의 온라인 안전을 책임지는 NGO와 손을 잡았다. AI 아시아태평양기구는 최근 넷세이프와 함께 'AI와 온라인 안전 : 새로운 위험과 기회(Discussion Paper on AI and Online Safety: Emerging Risks and Opportunities)' 논의 리포트를 발간했다고 27일 밝혔다. 두 조직은 생성형 AI 기술의 책임 있는 활용과 온라인 해악 최소화를 위한 구체적인 정책 제안을 통해 뉴질랜드 내 온라인 안전 거버넌스 체계 강화에 나설 계획이다. 이번 리포트는 생성형 AI(GenAI)의 급속한 발전으로 전 세계 디지털 환경이 재편되는 상황에 대응하기 위한 목적으로 작성됐다. 특히 신기술이 온라인 환경에서 초래하는 ▲아동 성착취물(CSAM) ▲허위 정보 확산 ▲혐오 발언·사이버 괴롭힘 ▲AI 기반 사기 등 다양한 온라인 해악을 심층 분석했다. 이와 함께 여성, 아동, 소수자 커뮤니티에 대한 불균형적 피해와 기존 기술적·법적 안전장치의 한계를 지적하고 뉴질랜드를 포함한 역내 국가들에게 다층적인 대응 전략을 제안했다. 특히 보고서는 ▲공공 교육 캠페인 강화 ▲플랫폼 모니터링 및 AI 정렬 기술 활용 ▲심리·법적 지원 제도 확충 ▲국제 협력 네트워크 참여 등 온라인 안전을 위한 구체적 정책 과제를 담았다. 이러한 노력을 통해 AIAPI와 넷세이프는 뉴질랜드가 책임 있는 생성형 AI 거버넌스 모델을 구축하고 미래 지향적인 디지털 생태계로 발전해 나가도록 지원할 방침이다. 양 기관은 이미 뉴질랜드 현지 이해관계자 및 국제 전문가들과의 워크숍 및 토론회를 통해 다각적인 시각을 반영했다. 이러한 노력을 토대로 안전한 온라인 환경 조성을 위한 실질적인 가이드라인과 프레임워크를 마련하고 뉴질랜드 정부 및 민간 분야와 긴밀히 협력해 정책적 실행력을 높일 계획이다. AIAPI는 아시아태평양 지역 경제를 발전시키기 위해 책임 있는 AI 발전을 진흥하는 글로벌 비영리 조직으로, 학제 간 연구·인식 제고·국제 협력·정책 자문 활동을 통해 역내 경제 발전에 기여하고 있다. 넷세이프 이외에도 아시아개발은행(ADB), 미국 국제개발처(USAID), JP 모건 등과 협력하고 있으며 국내에서는 APEC기후센터와도 협업 중이다. 넷세이프는 뉴질랜드를 대표하는 온라인 안전 NGO로서 피해자 지원, 교육자료 개발 및 배포, 사이버 범죄 대응, 정책 제안 등 광범위한 활동을 펼치며 뉴질랜드 국민들의 안전한 인터넷 이용을 돕고 있다. 알렉스 토 AIAPI 고문과 브렌트 캐리 넷세이프 대표는 "''AI와 온라인 안전' 논의문은 양 기관의 협력 덕분에 발간될 수 있었다"며 "AI와 온라인 안전 간의 상호작용이 다면적으로 진화해 나가는 와중에 논의문이 앞으로도 뉴질랜드 및 아시아태평양 전역의 이해관계자들과의 대화·참여·협력을 촉진하기를 바란다"고 강조했다.

2024.12.27 09:45조이환

[기고] 야누스의 얼굴을 가진 인공지능

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 로마 신화에 '야누스'라는 신이 나온다. 출입문으로 드나드는 사람들을 보기 위해 앞뒤에 얼굴을 가진 출입문의 수호신으로 알려져 있다. 세상 만사의 시작을 지배하는 신이기도 해서 한해의 시작인 1월을 뜻하는 영어 단어 '제뉴어리(January)'에 그 흔적을 남기기도 했다. 다만 야누스는 앞과 뒤의 모습이 다른 두 얼굴을 가진 것으로 묘사돼 어떤 일의 양면성, 밝은 면과 어두운 면이 공존하는 것을 표현할 때도 쓰인다. 생성형 인공지능(AI) 기술이 발전하면서 상상 속에서만 가능해 보였던 일들이 현실이 되고 있다. AI 기술이 글 내용을 음성으로 읽어 주고, 음악을 만들고 이미지를 만들어 낸다. 실제로 연기하는 배우 없이 만들어낸 동영상이 크게 어색하지 않은 단계에 이르렀다. 이처럼 AI 기술이 빠른 속도로 발전하면서 AI에 대한 기대가 커지고 있다. 한편으로는 자칫 AI를 이용한 결과물로 인해 정보가 유통되는 생태계의 무결성이나 신뢰성에 영향을 미칠 수 있고, 이로 인해 잘못된 정보가 사실인 것처럼 유통되거나 소비자를 기만하는 등의 문제가 발생할 위험이 있다는 우려도 나온다. AI가 결과물을 생성해 내는 과정이 블랙박스처럼 돼 있고, AI를 통해 만들어낸 결과물이 실제 존재하는 것과 구별하기 어려울 정도라, AI를 이용해 생성하는 결과물을 법률적으로 어떻게 다룰 것인지에 대한 논의도 한창이다. 유럽연합(EU)은 AI법을 제정하며 AI 시스템이 적절한 추적과 설명이 가능한 방식으로 개발 및 사용되고, 인간이 AI 시스템과 상호작용하거나 소통하고 있다는 사실을 인지해야 한다는 '투명성 원칙'을 밝혔다. EU AI법은 이런 원칙에 따라 AI 시스템 제공자가 사람이 아닌 AI 시스템에 의해 결과물이 생성됐음을 감지할 수 있는 기술적 솔루션을 시스템에 내장하도록 했다. 이러한 기술적 솔루션에 더해 AI 기술로 만든 결과물이 기존의 인물, 장소 또는 사건과 현저히 유사해 보는 사람으로 하여금 실제 사실인 것처럼 잘못 인식하게 하는 딥페이크에 대해서는 해당 콘텐츠가 AI에 의해 생성된 것이라는 점을 배포자로 하여금 표시하도록 했다. 우리나라도 'AI 기술 등으로 만든 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등'을 '딥페이크 영상 등'이라 정의했다. 선거일 전 90일부터 선거일까지 선거운동을 위해 딥페이크 영상 등을 제작, 편집, 유포, 상영 또는 게시하는 행위를 하지 못하도록 선거법을 개정했다. 선거운동 기간이 아닌 때도 선거운동을 위해 딥페이크 영상 등을 제작, 편집, 유포, 상영 또는 게시할 때 선관위 규칙으로 정하는 바에 따라 AI 기술 등으로 만든 가상의 정보라는 사실을 명확하게 인식할 수 있도록 표시하게 했다. 선거운동의 자유를 최대한 보장하면서도 선거의 공정성을 확보하기 위해 AI 기술 등을 이용해 만든 콘텐츠라는 사실을 누구나 쉽게 알아 볼 수 있도록 표시할 의무를 둔 것이다. 최근 국회 소관 상임위를 통과한 AI기본법 제정안도 AI사업자가 생성형 AI 또는 이를 이용한 제품 또는 서비스를 제공하는 경우 그 결과물이 생성형 AI에 의해 생성됐다는 사실을 표시하도록 정했다. 또 AI시스템으로 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등의 결과물을 제공하는 경우 해당 결과물이 AI시스템에 의해 생성됐다는 사실을 이용자가 명확하게 인식할 수 있는 방식으로 고지 또는 표시하도록 했다. 다만 AI로 만든 모든 콘텐츠에 'AI를 이용해 생성한 결과물'이라는 표시를 할 필요가 있을지는 의문이다. 선거 등 정보의 출처가 중요한 경우, 또 개인의 인격권 침해가 될 수 있는 경우에는 그 콘텐츠가 AI에 의해 생성된 것인지를 표시할 필요가 있다. 그러나 이러한 경우가 아닌 모든 경우에 표시가 필요할지, 표시를 한다면 어떠한 방식으로 할 것인지, 동영상, 이미지, 텍스트 등 각 콘텐츠의 특징을 고려해 콘텐츠 자체를 향유하는데 방해가 되지 않는 방식이 무엇일지 등 여러 가지 논의가 필요해 보인다. 로마인들은 야누스의 얼굴 중 한쪽은 과거를, 다른 한쪽은 미래를 본다고 생각했다고 한다. 야누스를 세상일의 복잡한 측면, 과거와 미래를 함께 보며 균형을 잡아주는 수호신으로 생각했던 것 같다. AI이 가진 두 얼굴도 균형을 이룰 수 있도록 제정되는 법률이 야누스의 역할을 하기를 기대한다.

2024.12.23 17:23유재규

"동남아 AI 거버넌스 선도한다"…아세안-AI 아시아태평양기구 '맞손'

동남아시아 국가 연합(아세안)이 아시아태평양 국가들의 인공지능(AI) 발전을 목표로 하는 비정부기구와 손잡고 생성형 AI의 책임 있는 발전을 위한 공동 대응에 나섰다. AI 아시아태평양기구(AIAPI)는 아세안 과학기술혁신위원회(COSTI)가 지난 9월 개시한 '생성형 AI의 책임 있는 개발 및 활용' 프로젝트가 최근 공식 승인 및 문서화됐다고 12일 밝혔다. 이 프로젝트는 아세안이 주도하고 미국 국제개발처(USAID)의 지원을 받았으며 AIAPI는 실행 역할을 맡아 아세안 회원국들이 직면한 정책적 도전과제를 해결하는 가이드라인을 제시했다. 프로젝트의 결과물인 '아세안 내 생성형 AI의 책임 있는 개발 및 활용에 관한 논의문(Discussion Paper on the Responsible Development and Use of Generative AI in ASEAN)'은 올해 2월 아세안 과학기술혁신 장관회의에서 공식 승인된 후 지난 10일 공개됐다. 이 문서는 7가지 기본 AI 원칙, 자발적 AI 거버넌스 프레임워크, 국가 및 지역별 권고사항을 담고 있다. 또 '아세안 디지털 마스터플랜 2025'와 연계해 생성형 AI가 가져올 새로운 위험에 대응하기 위한 핵심 기반 문서로 활용될 예정이다. 논의 문서의 핵심 권고사항 중 하나는 AI 기술 지원 시설 설립과 재정 지원을 통해 아세안 회원국들의 생성형 AI 활용 전략을 제시하는 정책 허브를 구축하는 것이다. 이 시설은 안전한 구현과 책임 있는 기술 도입을 실질적으로 지원하며 각국이 발전 전략을 수립하는 과정에서 전문적인 자문을 제공할 전망이다. 또 문서는 동남아시아 전역에 걸쳐 AI 관련 거버넌스 체계의 조율과 협력을 강조한다. 이는 다양한 문화와 민감성을 지닌 지역 특성을 존중하면서도 기술 혁신과 책임 있는 AI 발전 사이의 균형을 찾기 위함이다. 이 프로젝트는 지난해 12월 두 차례 열린 워크숍에서 얻은 교훈을 바탕으로 추진됐다. 첫 번째 워크숍은 아세안 내 관계자들에 집중해 지역적 우선순위와 요구를 파악했으며 두 번째 워크숍은 역내 및 국제 전문가들의 폭넓은 참여를 이끌어내 글로벌 관점에서 이점과 위험을 균형 있게 조망했다. 이로써 생성형 AI 거버넌스에 대한 다층적 분석과 실용적 해결책 마련에 기여했다. 프로젝트의 실행을 맡은 AI 아시아태평양기구(AIAPI)는 아시아태평양 지역 경제를 발전시키기 위해 책임 있는 AI 개발과 채택을 촉진하는 글로벌 비영리 조직이다. 이 기구는 학제 간 연구, 인식 제고, 국제 협력, 정책 자문 활동을 통해 역내 경제 발전에 기여하고 있다. 또 아시아개발은행(ADB), 미국 국제개발처(USAID), JP 모건 등과 협력하면서 국내에서는 APEC기후센터(APCC)와도 협업 중이다. 켈리 포브스 AIAPI 대표는 "최근 발표한 논의문은 기술 발전 수준과 문화가 서로 상이한 동남아시아 지역에서 책임 있는 AI를 지원하려는 노력의 일환"이라며 "생성형 AI가 초래하는 도전 과제의 시급성을 드러내고 경제·교육·사회적 발전을 위해 AI를 활용할 필요성을 강조하기 위해 발표됐다"고 말했다. 이어 그는 "이 프로젝트는 포용·미래지향적인 AI 발전을 위해 현실적인 정책 제언을 제공하고 국제협력을 촉진하며 이해관계자 간 참여를 장려하는 등 우리가 보인 지속적 노력의 결과"라고 강조했다.

2024.12.12 17:30조이환

[기고] AI 발전과 아동·청소년 보호

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)의 비약적인 발전은 우리의 일상생활에 깊숙이 스며들며 효율성과 편리함을 극대화하고 있다. 개인화된 추천 시스템부터 의료, 교육, 공공서비스에 이르기까지 우리가 직면한 많은 문제를 해결하는 데 기여하고 있다. 그럼에도 눈부신 기술발전의 이면에 존재하는 부작용을 간과할 수 없다. 특히 AI 기술발전이 아동·청소년처럼 기술적 맥락에 취약한 집단에 대해 미칠 영향에 대한 진지한 고민이 필요하다. 오늘날 소셜 네트워크 서비스(SNS)는 단순한 소통의 매개체를 뛰어넘어 거대한 상업적 플랫폼이 됐다. 주요 SNS 기업들은 사용자의 이용패턴, 관심사 등을 분석해 AI 알고리즘에 학습시켜 광고를 포함한 콘텐츠를 추천하는 서비스를 주 수익모델로 삼고 있다. 그런데 이러한 과정에서 대규모의 개인정보 및 데이터 수집과 분석이 이루어지기 때문에 프라이버시와 개인정보 침해 우려가 상존한다. 특히 아동·청소년의 의사결정과 정서에 부정적 영향을 미칠 가능성이 높다. 아동·청소년은 자신이 보는 콘텐츠와 광고가 어떤 의도로 설계되었는지 이해하기 어렵고 이는 무절제한 소비, 유해하거나 부적절한 콘텐츠에 대한 노출, 정체성 혼란과 같은 부작용으로 이어질 수 있기 때문이다. 세계 여러 나라에서는 이같은 문제의식을 기반으로 디지털 환경에서 아동·청소년을 보호하기 위한 방안을 모색하고 있다. 최근 호주가 세계 최초로 16세 미만 미성년자의 SNS 이용을 전면 금지하고 이를 위반한 업체에게 최대 450억원의 벌금을 부과하기로 하는 강력한 법안을 통과시켜 화제가 됐다. 호주는 지난 2022년 1월부터 시행된 '온라인 안전법 2021(Online Safety Act 2021)'에서 '아동을 대상으로 하는 사이버 폭력 자료'를 규정하고 서비스제공자에게 관련 자료를 최소화하기 위한 조치의무를 부과하고 있다. 영국에서는 지난 2017년 몰리 러셀이라는 14세 아동의 자살로 아동에 대한 SNS의 책임에 관한 논의가 촉발된 바 있다. 약 6년간의 논의 끝에 지난 2023년 10월 '온라인 안전법 2023(Online Safety Act 2023)'이 제정 및 공표됐다. 이 법에서는 아동성착취∙성학대 등 범죄에 해당하는 불법콘텐츠와 자살이나 자해, 혐오나 사이버괴롭힘, 그밖에 심각한 위해를 초래할 가능성이 있는 유해콘텐츠를 규정하고 서비스제공자가 불법∙유해콘텐츠를 발견하면 신속히 삭제 또는 차단하도록 했다. 미국 상원은 지난 7월 30일 '아동 온라인 안전법안(KOSA)'과 '어린이 및 10대 온라인 프라이버시 보호법 개정안(COPPA 2.0)'을 묶은 입법 패키지(KOSPA)를 의결했다. 'KOSPA'는 아직 하원 통과를 남겨두고 있지만 미국에서 지난 1998년 제정된 'COPPA' 이후 수십년 만에 연방 차원에서 온라인 아동보호를 위한 주요 법안의 제정을 추진한 것이라는 점에서 의미가 있다. 'KOSA'는 17세 미만 미성년자가 사용할 가능성이 큰 온라인 플랫폼에 대해 ▼정신건강 장애 ▼중독 ▼정신적·신체적 폭력 및 괴롭힘 ▼불법 약물 관련 홍보 및 마케팅 ▼성적 착취 및 학대 ▼약탈적 및 기만적 마케팅 또는 금전적 피해 등 미성년자에게 발생할 수 있는 특정 유해 요소들을 완화하기 위한 조치를 취했다. 합리적인 조치를 취해야 한다는 '주의의무(duty of care)'를 부과하면서 서비스제공자의 관리책임을 콘텐츠 자체가 아니라 서비스의 설계를 중심으로 구성했다는 것이 특징이다. 'COPPA 2.0'은 지난 1998년 제정된 'COPPA'의 개정안으로, 법 적용을 받는 미성년자의 최소연령을 13세에서 16세로 상향해 17세 미만 사용자의 개인정보를 동의없이 수집할 수 없도록 규정하고 아동·청소년을 대상으로 한 맞춤형 광고를 금지하며 '지우기 버튼(Eraser Button)'을 도입해 아동·청소년이 본인의 개인정보를 삭제할 수 있는 기능 제공을 의무화했다. 또 현행법의 '실제 인지(actual knowledge)' 기준을 수정해 플랫폼이 사용자가 미성년자임을 몰랐다는 주장을 할 수 없도록 했다. 국내 법상 디지털 환경에서 아동·청소년을 보호하기 위한 별도의 법령이 존재하지는 않는다. 다만 개인정보보호법상 만 14세 미만 아동의 개인정보처리를 위해서는 법정대리인의 동의를 받도록 하는 규정(제22조의 2), 아동·청소년의 개인정보 처리자를 위한 가이드라인(개인정보보호위원회, 2022. 7. 22.), 만 14세 미만 아동에게 맞춤형 광고를 제공하려면 법정대리인의 동의를 받도록 하는 조치(개인정보보호위원회, 맞춤형 광고에 활용되는 온라인 행태정보 보호를 위한 정책방안, 2024. 1.)들을 마련해 나가고 있는 것으로 보인다. 아동·청소년의 취약성 및 보호필요성을 고려하면 이들에게 AI에 기반한 서비스를 제공하는 사업자에게 상대적으로 많은 책임을 부여할 수밖에 없게 된다. 해외의 규제 흐름도 전반적으로 그러한 방향인 것으로 보인다. 그럼에도 이에 대해서는 표현의 자유 침해, 콘텐츠 검열 가능성 등 위헌적 요소가 존재한다는 비판이 대립하고 있어 지속적인 논의와 연구가 필요하다. 더 나아가 아동·청소년의 권리를 보호하는 규제를 설계하기 위해서는 현대 사회의 디지털 환경이 아동·청소년의 발달에 필수적인 조건이며 알권리와 참여권 실현에 긍정적 역할을 할 수 있다는 점, 아동·청소년 이용자가 단지 피해자에 머무는 것이 아니라 쉽게 가해자의 지위에 놓일 수 있다는 점까지 종합해 섬세한 접근이 필요할 것이다.

2024.12.08 13:09법무법인 태평양 노은영

태평양 박종백 변호사 "가상자산 2차 입법, 미래 준비하는 초석이 돼야"

법무법인 태평양의 박종백 변호사는 28일 국회에서 열린 '가상자산산업 및 블록체인 혁신을 위한 2차 입법 과제 토론회'에 발제자로 나서 한국 가상자산 법체계의 현황과 한계를 지적했다. 박종백 변호사는 "현재 한국의 가상자산 법체계는 이용자 보호에 지나치게 치중해 혁신의 가능성을 가로막고 있다"며 "2차 입법은 보다 균형 잡힌 접근이 필요하다"고 강조했다. 박 변호사는 '2차 입법'이라는 용어 자체에 대한 문제를 제기하며 "이 표현은 공식적인 법률 용어가 아닌 관행적인 용어로 그 자체가 현 입법의 미완성을 반영한다"고 지적했다. 그는 이어 "현행 가상자산 법체계는 특금법과 가상자산 이용자 보호법이 중심을 이루고 있지만 두 법은 제한적이고 과잉 규제적인 성격을 띠고 있다"고 설명했다. 이와 함께 "현재 법은 가상자산 산업이 급변하는 현실에 적합하지 않은 경우가 많다. 특히 이용자 보호와 시장 건전성은 강조되었지만 혁신을 담아내지 못하고 있다. 2차 입법은 단순히 규제를 추가하는 것이 아니라 혁신을 지원하고 글로벌 스탠다드에 부합하는 방향으로 설계돼야 한다"라는 설명도 이어졌다. 박종백 변호사는 한국 가상자산 시장의 구조적 문제점을 진단하며 "현재 한국 시장은 리테일 투자자 중심으로 운영되고 있어 글로벌 경쟁에서 뒤처지고 있다"고 말했다. 이어서 "법인 고객이 시장에 참여할 수 없는 구조는 글로벌 자본과의 연결을 차단하고 있으며 이는 시장의 규모와 혁신성을 제한하는 결과를 낳고 있다"고 말해 눈길을 끌었다. 박 변호사는 가상자산 이용자법의 향후 입법방안을 제시하기도 했다. 먼저 "가상자산, 블록체인, 스마트 컨트랙트 등 핵심 용어를 명확히 정의해야 한다. 현행법은 디지털 자산의 개념을 충분히 반영하지 못하고 있으며, 이로 인해 게임 아이템이나 선불전자지급수단과 같은 영역이 불명확하게 처리되고 있다"라고 지적했다. 이어서 "발행, 인수, 시장조성자 등 다양한 비즈니스 모델을 아우르는 규제를 설계해야 한다"라고 말하고 "매매 가격의 공정성을 보장하고, 이해 상충 방지와 통합 공시 시스템을 통해 정보 비대칭 문제를 해소해야 한다"고 시장 건정성을 확보해야 한다고 제언했다. 박종백 변호사는 "이용자 보호만을 강조한 기존의 접근법은 시장 참여자들의 요구를 충분히 반영하지 못한다"며 "혁신을 담보하면서도 공정성과 투명성을 보장하는 규제가 필요하다"고 주장했다. 한국 가상자산 시장의 글로벌 경쟁력을 높이기 위한 방안으로 국제 표준과의 연계도 강조했다. 박 변호사는 "EU의 미카(MiCA)와 같은 글로벌 규제 표준을 참고해 법체계를 정비해야 하며 글로벌 프로젝트가 한국 시장에 진입할 수 있는 명확하고 공정한 규제 환경을 마련해야 한다"고 말했다. 특히 리버스 인카니이션(외국 사업자가 국내에서 별도의 인가 없이 이용자의 요청에 따라 서비스를 제공하는 것)과 관련해 "현재 한국 법체계는 명확성이 부족하며, 이는 외국 사업자들에게 큰 장애물이 되고 있다"고 지적했다. 그는 "리버스 인카니이션을 포함해 상호 인정 제도와 같은 글로벌 규제 사례를 참고해 한국 시장의 투명성과 개방성을 높일 필요가 있다"라며 발제를 마쳤다.

2024.11.28 15:49김한준

[기고] AI 시대의 담합 규제, 알고리즘 담합

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 알고리즘(Algorithm)은 특정 값을 입력하면 정해진 작업 목록에 따라 값을 산출하는 기계·체계적 구조로, 전산 처리의 기본적인 구성 요소로 활용된다. 알고리즘은 주로 머신러닝과 인공지능(AI) 기술을 기반으로 발전하고 있으며 시장의 다양한 분야에서 사용되고 있다. 담합의 '독점규제 및 공정거래에 관한 법률(공정거래법)' 상 정확한 명칭은 '부당한 공동행위'로, 담합이 성립할 수 있는 유형은 공정거래법 제40조 제1항에 따라 매우 다양하다. 담합은 복수의 사업자 간의 '합의(의사의 합치)'를 요건으로 한다. 합의는 계약, 협정, 협약, 결의와 같은 '명시적 합의' 뿐만 아니라 암묵적 양해와 같은 '묵시적 합의'도 포함한다. 이와 함께 지난 2021년부터 시행된 전면 개정 공정거래법에서는 제40조 제1항 제9호에 따라 '정보교환'을 통한 담합 행위를 신설해 금지하고 있다. 이는 사업자 간의 정보교환이 경쟁을 제한하는 수단으로 활용될 수 있다는 우려에서 비롯됐으며 가격, 생산량 등 민감한 정보를 교환함으로써 묵시적 담합이 이루어질 가능성이 높아짐에 따라 이를 명확히 규제하기 위한 목적이다. 알고리즘의 발전은 경쟁법에서 새로운 논점을 제기하고 있으며 그 중에서도 알고리즘 담합은 뜨거운 감자다. 일반적으로 알고리즘의 사용은 시장의 투명성을 높이고 사업자 간 경쟁을 촉진하는 긍정적인 효과를 가져온다. 우리가 흔히 사용하는 가격 비교 서비스가 그 대표적인 예다. 그럼에도 알고리즘이 주요 거래정보를 분석해 사업자 간 예측 가능성을 높이는 경우 묵시적 담합이 이뤄지는 환경을 제공할 수 있다. 전문가들이 알고리즘 담합에 주목하기 시작한 것은 구글, 아마존과 같은 대형 플랫폼과 우버, 에어비앤비와 같은 공유 경제 기업이 비약적으로 성장한 지난 2010년대 중반부터다. 이 중 '마이어 대 우버(Meyer v. Uber Technologies, Inc.)' 소송이 가장 유명한데 이는 개인 원고인 스펜서 마이어가 우버의 가격 책정 알고리즘이 운전자들 간의 가격 담합을 조장한다고 주장하며 제기한 민사 소송이다. 해당 소송은 우버가 제기한 중재 합의 주장이 받아들여져 법원의 본안 판단 없이 중재로 마무리됐지만 새로운 경쟁법적 과제에 대한 중요한 논의를 촉발시키는 계기가 됐다. 이같은 우려 속에서 각국 경쟁 당국은 알고리즘 담합에 대응하기 위해 적극적인 조사 및 규제 움직임을 보이고 있다. 최근 미국에서는 개인 원고들이 애틀랜틱 시티와 라스베이거스의 호텔들을 대상으로 호텔들이 센딘(Cendyn)의 '레인메이커(Rainmaker)' 소프트웨어를 통해 실시간 가격과 점유율 데이터를 공유하며 가격을 담합했다고 주장하며 소송을 제기했다. 이에 미국 법무부와 연방거래위원회는 해당 소송에서 의견서를 제출하면서 경쟁사들이 공통의 알고리즘을 사용해 가격을 설정하는 행위가 명시적 합의 없이도 담합으로 간주될 수 있다고 평가했다. 또 알고리즘을 통한 가격 설정이 경쟁 제한적 효과를 가져올 수 있고 이러한 행위가 반독점법 위반에 해당할 수 있다는 점을 강조했다. 그럼에도 두 소송 모두 원고가 가격 담합을 입증할 충분한 증거를 제시하지 못했다는 이유로 기각됐다. 법원은 해당 알고리즘을 통해 경쟁사들의 기밀 내지는 비공개 정보가 교환되지 않았고 알고리즘은 단지 가격을 추천 내지 권장할 뿐이지 각 호텔들이 알고리즘의 가격 추천에 구속되지 않았다는 점을 주요 판단 근거로 삼았다. 이에 비추어 볼 때 알고리즘을 통해 사업자간 기밀 정보가 교환될 경우 담합이 성립할 가능성이 높으며 알고리즘의 가격 추천에 대한 구속력이 없다고 보여질 경우 담합으로 인정되기 어려울 것으로 생각된다. 국내 법원도 묵시적 담합의 인정과 관련해 신중한 태도를 보여왔으며 정보교환만으로는 합의가 추정되지 않고 사업자간 묵시적 합의를 인정할 정도의 의사연결의 상호성이 존재해야 한다는 입장을 취해 왔다. 그런데 알고리즘 담합은 알고리즘이 자동적으로 정보를 저장하고 거래에 반영하는 구조이기 때문에 단순한 정보교환을 넘어서 묵시적 합의를 구성하기 어려운 장애물이 다수 존재한다. 이 같은 상황에서 공정거래법은 정보교환을 부당한 공동행위의 유형으로 포함시켰다. 이에 따라 알고리즘과 관련해 사업자 간 담합으로 볼 수 있는 외형상 일치와 정보교환이 존재할 경우 이를 담합으로 규제할 수 있는 근거 규정을 보완했다. 알고리즘이 경쟁 제한 효과를 초래할 가능성이 높아짐에 따라 알고리즘 담합에 대한 규제는 향후 디지털 경제에서 공정성과 혁신을 조화롭게 유지하기 위한 필수적인 과제가 될 것으로 예상된다. 기술의 발전과 법적 규제 간의 괴리를 줄이기 위해서는 알고리즘 담합과 관련한 보다 세분화된 판단 기준과 지침이 필요할 것으로 생각된다. 이전까지는 각국 경쟁 당국의 조사 추이 및 최종 판단을 유의 깊게 지켜봐야 할 것이다.

2024.11.22 11:11법무법인(유한)태평양 변채영

[기고] 생성형 AI 규제는 시장의 경쟁을 촉진하는가

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)이라는 새로운 기술이 우리의 삶과 산업에 미치는 영향은 무궁무진하다. 이에 따라 기술 혁신을 지속함과 동시에 시장과 소비자에게 미치는 부정적 영향을 최소화하는 것이 각국 정부와 기업에게 필수적인 과제가 됐다. 유럽연합(EU)의 인공지능법(EU AI Act)으로 대표되는 AI 규율에 관한 논의는 지금까지 비경제적·비경쟁적인 요소에 국한돼 있었는데 최근 전세계 주요 경쟁당국들이 AI 시장에 대해 분석을 시작하거나 보고서를 발간하는 등 경쟁법적 규제의 움직임을 보이고 있다. 유럽연합 집행위원회(EC), 미국 연방거래위원회(FTC), 영국 경쟁시장청(CMA), 프랑스 경쟁청(Autorite de la concurrence) 등은 다양한 형태의 조사를 함으로써 생성형 AI 시장에서의 독점화 가능성에 대해 주시하고 있다. 우리 공정위거래위원회도 지난 8월부터 AI 분야의 국내 및 해외 주요 사업자를 대상으로 'AI 시장 실태조사'에 착수했고 이 실태조사 결과를 바탕으로 올해 말 'AI 정책보고서'를 발간할 계획이다. 이들은 생성형 AI의 핵심적인 경쟁 요소인 데이터, 전문 연구 인력, 컴퓨터 리소스를 이미 보유하고 있는 거대 기업들에 대해 걱정한다. 경쟁 사업자들이 이 자원에 대해 접근·이용하지 못하도록 거절 또는 제한함으로써 시장진입과 경쟁을 막고 인접시장으로의 지배력을 전이하거나 확장할 것이라는 우려다. 또 서비스 간 경쟁의 경계가 흐려지고 그 범위가 확대되는 과정에서 기존의 플랫폼 시장에서의 독점 사업자가 경쟁자를 배제하기 위해 행한 일련의 경쟁 제한행위가 생성형 AI 시장에서도 그대로 발생할 가능성이 있음을 걱정한다. 처음에는 오픈소스를 배포해 거래를 개시하고 꾸준한 데이터 수집을 통해 일정한 규모를 달성한 후에는 폐쇄형으로 전환하는 등의 방법으로 경쟁을 제한하는 폐해를 가져올 수도 있음도 지적하고 있다. 그럼에도 불구하고 생성형 AI 시장은 초기 발전 단계로, 기존의 가정에 의존하거나 기술의 미래를 예측해 사전에 규제하려는 시도가 오히려 예기치 않은 부작용을 초래할 위험도 있음을 주의해야 한다. 생성형 AI 관련 당사자와 서비스의 광범위성·복잡성, 그 기술과 서비스 구조의 변동성·불확실성·예측 불가능성 등의 특성을 고려하면 새로운 AI 기술에 대한 선제적 개입은 혁신의 동력을 약화시키고 자본과 인재의 유입을 저해할 가능성이 크다. 이러한 문제는 비단 경쟁당국과 경쟁법 영역에서만 발생하는 것이 아니다. AI에 관한 기본법으로 대표되는 EU AI법은 AI의 안전과 윤리를 보장하는 중요한 규제지만 중소기업이나 스타트업의 경쟁 환경을 악화시킬 수 있는 몇 가지 부정적 측면을 가지고 있다. 첫째로 EU AI법은 생성형 AI 시스템 공급자에게 다양한 의무를 부과하는데 이러한 의무를 이행하는 데는 상당한 비용이 발생한다. 예를 들어 텍스트 생성에 특화된 생성형 AI 모델을 개발하는 중소업체는 EU AI법에 따라 모델 훈련에 사용된 방대한 데이터셋의 출처를 명확히 하고 저작권 침해 여부를 검토해야 한다. 또 모델의 성능과 안전성을 입증하는 기술 문서를 작성하고 지속적으로 업데이트도 해야 한다. 이러한 의무를 준수하기 위해서는 전문 인력, 데이터 관리 시스템, 법률 자문 등이 필요한데 이는 자원이 부족한 중소기업이나 스타트업에게는 큰 부담이 될 수 있다. 결과적으로 규제 준수를 위한 자원을 충분히 확보하고 있는 거대 기업과 달리 중소기업이나 스타트업은 규제 준수 비용으로 인해 시장 진입 및 경쟁에 어려움을 겪을 수 있다. 둘째로 EU AI법은 오픈소스 모델에 대해 일부 의무를 면제하지만 그 기준과 범위가 모호하다. 일례로 '시스템적 위험'에 대한 명확한 정의가 부족하고 어떤 모델이 면제 대상에 해당하는지 판단하기가 어렵다. 이러한 불확실성은 기업들의 예측 가능성을 떨어뜨리고 혁신을 저해할 수 있다. 만약 오픈소스 기반 이미지 생성 AI 모델을 개발하는 스타트업이 '시스템적 위험'에 대한 해석이 모호해 규제 적용 여부를 확신할 수 없다면 규제 불확실성으로 인해 투자 유치에 어려움을 겪고 모델 개발 및 출시를 지연시킬 수밖에 없을 것이다. 셋째로 EU AI법은 고위험 AI 시스템에 대한 엄격한 규제를 통해 안전과 윤리를 보장하고자 하나 동시에 혁신을 저해하고 다양성을 감소시킬 우려가 있다. 특히 모호한 AI 시스템의 위험 등급 분류 기준과 복잡한 규제 준수 절차가 새로운 기술 개발 및 시장 진입을 위축시킬 수 있다. 일례로 의료 진단 분야에 활용될 수 있는 새로운 AI 모델을 개발하는 연구기관이 있다면 이 기관은 EU AI법에 따라 해당 모델을 고위험 AI 시스템으로 분류해야 할지 판단하기 어려워 규제 준수에 어려움을 겪을 수 있다. 법률 해석의 모호성 및 집행의 불확실성은 기업들이 규제 적용 범위를 예측하기 어렵게 만든다. 결과적으로 EU AI법은 의도와 달리 AI 생태계의 역동성을 저해하고 다양한 AI 솔루션 개발을 제한해 소비자 선택권을 축소시키는 결과를 초래할 수 있다. 규제 당국은 중소기업 및 스타트업의 규제 준수 부담을 완화하고 법적용 여부의 불확실성을 해소하며 거대 기업의 지배력 전이 가능성을 차단하는 데 집중해야 할 것이다. 이같이 시장에서의 경쟁 여부 및 그 정도가 온전히 경쟁법의 영역에서만 좌우되는 것은 아니다. 생성형 AI 시장에 대한 규제나 경쟁법 집행을 논의함에 있어서는 시장의 실제 경쟁 구조와 성장 단계에 대한 세밀한 분석이 선행돼야 한다. 기존의 가정에만 의존하지 않고 데이터 기반의 심도 있는 연구를 바탕으로 한 규제 방안이 필요하며 이는 공정한 경쟁과 지속 가능한 혁신을 위한 기반이 될 것이다.

2024.11.11 11:02법무법인 태평양 강정희

"호주 정부는 1조원 대가 치렀다"…UN, 책임 있는 공공 AI 강조

"인공지능(AI)은 공공 행정을 혁신할 수 있는 강력한 도구입니다. 이러한 AI가 책임감 없이 활용된다면 막대한 비용과 사회적 문제를 초래할 수 있습니다. 이 교훈을 얻기까지 호주 정부는 약 10억 달러(한화 약 1조2천억원)의 대가를 치러야 했습니다." 켈리 포브스 AI 아시아태평양기구(AIAPI) 대표는 지난 30일 인천 송도 컨벤시아에서 열린 '제8회 UN 리저널 심포지엄'에서 이렇게 강조했다. 이번 심포지엄은 '효과적인 거버넌스와 인공지능(AI) 전환을 통한 2030 아젠다 달성'을 주제로 개최돼 아시아태평양 및 동아프리카 등 48개국에서 약 300여 명의 정부 관계자와 전문가가 참석했다. 31일 업계에 따르면 최근 AI 기술의 급속한 발전과 함께 공공 행정 분야에서도 AI 도입이 활발하게 이뤄지고 있다. 이와 함께 딥페이크·가짜 뉴스 등 AI 기술의 오남용이나 책임성 결여로 인한 부작용에 대한 우려도 커지고 있다. 이러한 상황 속에서 포브스 대표는 공공 부문에서의 AI 활용에 대한 경각심을 일깨우기 위해 행사에 참가했다. 포브스 대표는 호주 정부의 '로보 데트(Robo-debt)' 사례를 언급하며 책임 없는 AI 사용이 시민들에게 어떤 결과를 초래할 수 있는지 설명했다. '로보 데트'는 지난 2016년 호주 정부가 복지 수급자의 부채를 자동으로 산정하기 위해 출시했던 AI 시스템으로, 부정확한 데이터와 알고리즘 편향으로 인해 수많은 오류와 부당 청구가 발생한 바 있다. 그 결과 호주 정부는 약 10억 달러(한화 약 1조2천억원) 이상의 소송 비용을 부담해야 했다. 그는 "'로보 데트' 사례는 AI 시스템이 시민의 권리를 침해할 수 있는 위험성을 경고한다"며 "AI의 의사결정 과정에 대한 투명성과 설명 가능성을 높여야 한다"고 강조했다. 이를 위해서는 책임 있는 AI 사용을 위해 정부·민간·학계·시민 사회가 뜻을 모아 협력할 필요가 있다. 이는 AI가 사회적 의사결정 과정에서 점점 중요한 역할을 맡고 있는 상황에서 편향과 투명성 부족 같은 문제를 효과적으로 해결하기 위함이다. 특히 정부는 AI 사용의 기본 원칙과 규제를 마련하고 민간은 기술 개발을 통해 책임 있는 AI 사례를 제시해야 한다는 것이 포브스 대표의 주장이다. 또 학계와 시민 사회는 연구와 감시 역할을 맡아 AI가 시민 권리를 침해하지 않도록 보완할 필요가 있다. 그는 "이러한 다각적인 협력을 통해서만 AI가 진정한 공공의 이익을 실현할 수 있다"며 "이를 전 세계적으로 확장하기 위해서 지역 간 협력을 촉진하기 위한 기술 지원 센터(AI Technical Facility)를 설립하는 것도 하나의 방안"이라고 강조했다. 이어서 발제한 세르주 스틴크위치 유엔대학교 마카오 연구소 소장은 AI가 모든 계층의 목소리를 반영하게 지원할 포용적인 정책이 중요하다고 강조했다. AI 기술은 근본적으로 발전하고 확장될수록 특정 계층이나 그룹의 소외 가능성을 높인다. 이를 방지하기 위해서는 정책적 조치가 핵심적이다. 스틴크위치 소장은 "모든 나라의 정부는 AI가 공공 서비스와 정책 결정에 사용될 때 소외된 이들을 혹시나 더욱 소외시킬 가능성이 없는지를 고려해야 한다"고 강조했다. 또 스틴크위치 소장은 개인정보 보호를 위한 방안으로 합성 데이터(Synthetic Data) 기술의 활용이 중요하다고 언급했다. 합성 데이터는 실제 데이터를 사용하지 않고도 데이터 분석에 필요한 통계적 특징을 구현할 수 있는 인공 데이터로, 개인정보 보호와 데이터 편향 문제를 해결하는 데 기여할 수 있다. 그는 "합성 데이터를 통해 개인을 보호하면서도 유의미한 분석을 수행할 수 있다"며 "이로써 각국은 개방형 소스 AI를 활용해 주권을 유지하면서도 서로의 상황에 맞는 AI 솔루션을 개발할 수 있다"고 말했다. 이어서 발제한 권헌영 고려대 정보보호대학원 교수는 한국의 디지털 플랫폼 정부 사례를 소개하며 데이터 기반 정책 결정과 AI 통합을 위한 국가적 데이터 거버넌스의 중요성에 대해 설명했다. 그는 "한국은 세계 최고 수준의 디지털 인프라를 바탕으로 공공 행정에서 AI를 효과적으로 활용하고 있다"며 "공공 부문 인력의 AI 활용 역량을 강화해 더욱 효율적인 행정 서비스를 제공해야 한다"고 강조했다.

2024.10.31 18:14조이환

[기고] EU 플랫폼 노동 지침과 자동화된 의사결정

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI)의 발전은 자율주행차, 로봇, 신약 개발 등 거의 모든 분야에서 혁신을 이끌며 우리의 삶을 더욱 편리하고 효율적으로 바꾸고 있다. 그럼에도 불구하고 이러한 편리함과 효율성이라는 눈부신 성과 뒤에는 인간의 자유, 권리, 존엄성에 대한 새로운 도전과 잠재적 위협이 숨어 있다. 대규모 데이터를 학습한 AI 시스템은 인간의 개입 없이도 자동으로 의사결정을 내릴 수 있다. 이러한 자동화된 의사결정(ADM, Automated Decision-Making)은 확장성 등의 측면에서 인간이 내리는 결정보다 파급력이 클 수 있다. 이에 따라 AI시스템에 의한 자동화된 결정을 도입하기에 앞서 개인의 자유와 권리에 대한 영향뿐만 아니라 사회의 공정성과 책임성에 대한 검토가 필요하다. AI와 자동화된 의사결정이 어떻게 인간의 권리를 위협할 수 있는지에 대해선 현재 활발한 논의가 진행 중이다. 디지털 경제의 급격한 발전으로 인해 다양한 플랫폼이 등장했고 수많은 근로자들이 디지털 플랫폼에서 일하게 됐다. 유럽연합(EU)에서 이러한 근로자들은 종종 '자영업자'나 '독립 계약자'로 분류되는 경우가 있다. 그럼에도 이러한 근로자들은 실질적으로 그들의 고용주로 볼 수 있는 플랫폼의 알고리즘에 의해 관리되고 통제되는 경우가 많다. 이러한 관리와 통제의 과정에서 근로자는 일방적으로 자동화된 의사결정에 따라 업무가 배정되거나 평가받으며 그 결과로 근로자로서의 권리와 보호에서 소외되는 경우가 발생하기도 한다. EU는 이같은 플랫폼 근로자의 근로자성에 대한 문제를 해결하기 위한 논의를 진행했다. 또 플랫폼 근로자를 보호하고 권리를 강화하는 법적 틀을 마련하고자 했다. 이에 따른 성과로 지난 3월 11일 'EU 플랫폼노동 입법지침(EU Platform Work Directive)' 최종 타협안을 승인하기에 이르렀다. 이에 따라 EU 회원국은 2년 내 지침에 따른 관련법을 제정해야 한다. 'EU 플랫폼노동 입법지침'은 플랫폼 근로자의 법적 지위를 명확히 하고 그들이 적절한 사회보장을 받을 수 있도록 하는 데 중점을 둔다. AI 기반 알고리즘은 플랫폼 근로자에게 자동으로 업무를 배정하고 성과를 평가하며 이에 따른 보상을 결정하지만 학습된 데이터가 편향돼 있을 경우 이러한 데이터에 기반한 의사결정도 편향될 수 있다. 또 알고리즘이 어떻게 작동하는지와 어떤 기준으로 의사결정을 내리는지에 대한 정보가 노동자에게 충분히 제공되지 않는 경우가 많다. 알고리즘은 자동으로 결정을 내리지만 그 결정이 잘못되었을 때 누구에게 책임을 물을 것인지는 명확하지 않다. 플랫폼은 알고리즘의 오류나 편향성에 대해 책임을 회피할 수 있으며 노동자는 이로 인해 발생한 불이익에 대해 보호받지 못할 수 있다. AI와 자동화된 의사결정이 근로자의 권리에 미치는 영향을 줄이기 위해서는 인간의 개입과 책임성이 어느 정도 보장돼야 할 것으로 생각된다. AI나 자동화된 결정에 대해 근로자는 언제든지 인간의 개입을 요구할 수 있어야 한다. 또 잘못된 결정이 내려졌을 경우 이에 대한 명확한 책임 소재가 규정돼야 한다. AI와 자동화된 의사결정 시스템이 노동 시장에서 효율성과 편리성을 높이는 데 큰 역할을 하고 있음에도 근로자 권리를 침해할 위험도 커지고 있다. EU 플랫폼 노동 지침은 이러한 위험을 줄이기 위해 알고리즘 투명성, 인간의 개입, 공정성 확보 등 여러 가지 규제를 도입하고 있다. 앞으로도 기술 발전에 따른 새로운 윤리·법적 문제에 대한 지속적인 논의와 규제가 필요하다. 이를 통해 AI가 사회에 긍정적인 변화를 일으키는 동시에 인간의 존엄성과 권리를 지킬 수 있도록 해야 할 것이다.

2024.10.25 17:23법무법인(유한) 태평양 이강혜

오픈베이스, 라드웨어 아태지역 '최고 파트너' 선정

오픈베이스가 라드웨어의 아시아 태평양 최고 파트너로 선정됐다. 오픈베이스는 최근 라드웨어가 개최한 '라드웨어 이그제큐티브 익스체인지 2024(Radware APAC executive Exchange 2024)'에서 '올해의 디스트리뷰터(2024 Distributor of the Year)' 상을 수상했다고 16일 밝혔다. 이번 수상은 오픈베이스가 라드웨어의 네트워크 보안 솔루션을 아시아 태평양 시장에 성공적으로 확산시키며 거둔 성과를 바탕으로 한다. 오픈베이스는 네트워크, 보안, 클라우드, 통합아웃소싱(ITO) 등 다양한 분야에서 혁신적인 IT 솔루션을 제공하며 시장에서 꾸준히 입지를 다져왔다. 특히 라드웨어와의 파트너십을 통해 기술적 우위를 확보하며 고객들에게 차별화된 솔루션을 제공해왔다. '라드웨어 이그제큐티브 익스체인지'는 라드웨어가 아태지역 파트너와 고객을 대상으로 신제품 발표와 비즈니스 로드맵을 공유하는 글로벌 행사다. 올해 행사는 지난 7일부터 나흘간 태국에서 개최됐으며 다양한 고객 사례와 최신 기술 트렌드가 논의됐다. 이 행사에서는 파트너 간 네트워킹 기회도 제공돼 라드웨어의 파트너들이 성공 전략을 공유하고 향후 협력 방안을 논의하는 장이 되었다. 황철이 오픈베이스 대표는 "이번 수상은 라드웨어와의 긴밀한 파트너십과 우리 팀의 전문성이 만들어낸 성과"라며 "앞으로도 협력을 더욱 강화해 고객들에게 차별화된 IT 솔루션을 제공하고 지속적인 성장을 이끌어낼 것"이라고 강조했다.

2024.10.16 14:23조이환

"개인정보 국외이전 기준 마련"…태평양 이강혜 변호사, 개보위원장 표창 수상

이강혜 법무법인 태평양 변호사가 개인정보 보호에 기여한 공로를 인정받았다. 법무법인 태평양은 개인정보보호위원회(개보위)가 지난달 30일 서울 강남 코엑스에서 개최한 제4회 개인정보 보호의 날 기념식에서 이 변호사가 개인정보보호유공 '발전·협력 분야' 부문 개보위원장 표창을 수상했다고 8일 밝혔다. 이 변호사는 개인정보의 국외이전과 관련해 '이전 대상국 등의 개인정보 보호 수준이 개인정보 보호법에 따른 보호 수준과 실질적으로 동등한 수준을 갖추고 있는지에 대한 인정 기준을 마련하는 연구'에 기여한 공로를 인정받았다. 개인정보 및 정보보호 분야 전문가로 활동해온 이 변호사는 개인정보 보호와 안전한 활용이 실현될 수 있는 환경 조성에 기여해왔다. 국내외 기업뿐 아니라 개보위와 한국인터넷진흥원 등 유관기관에도 자문을 제공한 바 있다. 사내변호사로 지난 8년간 근무하며 쌓은 경험과 기업 실무 전반에 대해 깊은 이해를 바탕으로 실질적 솔루션을 제공하는 전문가로 평가받는다. 태평양 이강혜 변호사는 "앞으로도 개인정보 분야의 발전에 기여할 수 있도록 노력하겠다"고 말했다.

2024.10.08 11:36조이환

[기고] 브뤼셀 효과 이면 속 건강한 국내 디지털 시장 발전 위해 고려할 사항은?

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 세계가 급격하게 디지털화되면서 혁신, 번영, 개인의 권리를 균형있게 보호할 수 있는 올바른 거버넌스 체계에 대한 논의도 급물살을 타고 있다. 유럽은 디지털 기술 및 정보보호 분야에서 입법의 선도자로 자리매김해 왔다. 유럽연합(EU)의 개인정보보호규정(GDPR)은 세계적인 표준으로 간주되고 있으며 다른 지역에도 영향을 미쳐 왔다. 이는 소위 말하는 '브뤼셀 효과'다. 일반 데이터 보호 규정(GDPR) 제정 이후 EU는 디지털 전략의 일환으로 관련 법령들을 발전시켜 왔다. 그럼에도 유럽 연합의 방대한 디지털 법안 패키지가 부정적인 영향을 미친다는 비판적인 목소리도 있다. 마리오 드라기 이탈리아 전 총리는 최근 EU 집행위원회 '유럽 경쟁력의 미래(The future of European competitiveness)' 보고서에서 "유럽에서 성장하려는 혁신적인 기업들이 일관성 없고 제한적인 규제로 인해 매 단계마다 방해를 받고 있다"고 지적했다. 드라기 전 총리의 말과 같이 '브뤼셀 효과'는 영감의 원천이 될 수 있지만 동시에 주의 깊게 검토해야 할 경고로도 작용할 수 있다. 지난 해 국내에서도 개인정보보호법 시행령을 개정했다. 이는 표면적으로는 개인정보 보호법을 GDPR의 일부분과 더 유사하게 조정하려는 것처럼 보인다. 이번 개정 중 가장 중요한 부분은 국내에서 표준으로 자리 잡아 온 '필수 동의' 사용의 변화다. 새로운 접근 방식에 따르면 개인정보 처리를 위한 동의를 받는 기업은 더 이상 사용자에게 서비스 이용을 위해서는 동의를 해야 한다고 강제하지 못한다. 대표적인 예시로 더이상 필수동의 체크박스는 사용할 수 없게 되는 것이다. 대신 이제는 동의가 개인의 '자유로운 의사'에 따라 이루어지도록 해야 한다. 개인정보 처리가 선택 사항이어야 하며 사용자가 동의를 거부하더라도 여전히 서비스에 접근할 수 있도록 허용돼야 한다. 이는 국내 여러 산업에 광범위한 영향을 미칠 수 있는 중대한 변화다. 이에 따라 GDPR의 동의 개념에서 영감을 받은 이러한 새로운 접근 방식이 미칠 잠재적인 영향을 분석하고자 한다. 지나치게 복잡한 디지털 규제 환경으로 인해 EU에서는 중복된 디지털 법령들의 서로 다른 요구사항들을 어떻게 적용할지에 대한 법적 불확실성이 초래되고 있다. 규제 당국의 보수적이고 제한적인 해석과 맞물려 이러한 상황은 유럽의 글로벌 경쟁력과 혁신에 위축 효과를 가져오고 있다. 앞서 언급한 드라기 전 총리의 보고서는 EU 법령의 빈번한 변경으로 인해 법령이 누적되고 있다고 지적한다. 또 중소기업에 과도하게 높은 준수 비용이 부과돼 결과적으로 소비자들이 서비스 비용을 더 부담하게 될 수 있음을 구체적으로 언급한다. 메릴랜드 대학교의 연구 역시 GDPR로 인해 유럽의 벤처 캐피탈 투자가 미국에 비해 감소했음을 확인해준다. 개인정보보호위원회는 지난 20년간 시행돼 온 필수 동의 제도의 변경에 대한 지침을 올해 말까지 발표할 것이라고 밝힌 바 있다. 동의에 대한 추가 지침을 마련할 때는 조직 사업 운영의 자유, 소비자 정보 접근권, 디지털 경제 성장의 혁신에 미치는 영향 등 중요한 사회적 권리들과 프라이버시권 간의 합리적 균형을 보장해야 한다. 입법자와 규제 당국은 기업에 미치는 실질적인 영향과 디지털 서비스의 사용자 경험을 고려해야 한다. 광고 기반 수익으로 제공되는 서비스들이 유료로 전환될 가능성이 크고 중소기업들은 더 높은 비용 부담을 겪게 될 확률이 높다. GDPR의 '자유로운 의사에 따른 동의 요건 해석 방식'을 따르게 된다면 국내 기업들이 고객의 데이터를 처리하는 방식에도 중요한 변화가 발생할 것이다. '필수 동의' 제거에 따라 거의 모든 국내 온라인 사업체가 막대한 비용을 들여 온라인 서비스를 재구성해야 할 것이기 때문이다. 광고 기반 수익에 의존하는 디지털 기업들은 가능한 경우 대체 수익원을 찾아야 할 것이다. 이러한 변화는 소비자에게도 영향을 미칠 것이다. 현재 광고 기반 모델을 사용하는 다양한 기업들은 규모와 관계 없이 소비자에게 무료 서비스를 제공하고 있다. 이는 기업들이 사용자로부터 직접 수집한 개인정보를 활용해 적합하고 흥미로운 맞춤형 광고를 제공할 때만 가능하다. 본질적으로 광고주로부터의 수익이 무료 서비스를 지원하는 재원이 되기 때문이다. 기존 관행에 변화가 생기면 디지털 생태계에 상당한 영향을 미칠 수밖에 없다. 이미 EU 내 일부 사례에서 관찰됐듯이 뉴스 웹사이트, 게임 앱, 소셜 미디어가 제공 서비스를 변경할 경우 국내 소비자에게 비용을 초래할 수 있다. 이 쟁점에 있어서는 규제 당국·기업·정책 입안자·학계 간의 진지하고 건설적인 대화가 특히 중요하다. 현재 제안된 변경사항은 프라이버시의 법률 구조뿐만 아니라 중소기업·대기업 전반의 일상적 비즈니스와 사업 운영의 자유에까지 광범위한 영향을 미칠 것이다. 또 이러한 변화가 개인의 프라이버시 보호에 실제로 더 나은 결과를 가져올지도 명확하지 않다. 기업들이 광고 기반 수익 모델에 의존할 수 있는 능력을 줄인다고 해서 이들이 개인정보를 더 잘 처리하거나 개인정보의 보안을 강화하게 되는 것은 아니기 때문이다. 이는 오히려 기업과 소비자 모두에게 더 많은 어려움을 초래할 수 있다. 이보다는 투명성과 통제를 통해 개인, 경제, 혁신에 과도한 부담을 주지 않으면서도 프라이버시 보호를 달성할 수 있을 것이다. 기업들이 데이터 처리 방식과 시스템을 규제에 맞게 조정하기 위해서는 규제 당국의 실질적인 지침과 합리적인 타임 라인이 필수적이다. 이에 따라 데이터 처리의 다양한 법적 근거에 대한 명확한 기준을 제시하고 여러 사례를 신중하고 포괄적으로 검토하며 문제되는 다양한 기본권 간의 균형을 고려해야 할 것이다. 대한민국은 중대한 기로에 서 있다. 이번에 제안된 변화는 법적 불확실성을 초래했다. 향후 제시될 지침은 국내 소비자들의 프라이버시를 보호하고 이들이 혁신적인 디지털 제품 및 서비스에 공정하게 접근할 수 있도록 해야 할 것이다. 동시에 기업들이 국내 경제를 지속적으로 성장시키게 해석·시행되도록 보장해야 할 것이다. 이 원고는 유럽 소재 개인정보 보호 분야 저명한 씽크탱크인 Centre for Information Policy Leadership (CIPL)과의 공동 연구를 통해 작성됐다.

2024.09.27 10:50법무법인 태평양 류광현

에어버스 "향후 20년간 아시아-태평양 항공기 시장 2배 성장"

아시아-태평양 지역 상업용 항공기 서비스 시장이 향후 20년간 두 배 이상 성장할 것이라는 전망이 나왔다. 에어버스는 최신 글로벌 서비스 전망 보고서(GSF)에서 해당 시장이 현재 520억 달러(약 69조원)에서 2043년 1천290억 달러(172조원)까지 늘어날 것이라고 분석했다. 이에 연평균 4.81%의 복합 성장률(CAGR)을 기록하는 여객 항공 교통량 증가에 따라 약 1만9천500대의 신규 항공기 수요가 발생할 수 있다는 설명도 덧붙였다. 에어버스 측은 "연간 항공 교통량 증가와 기단의 확대 및 디지털화된 연결 항공기 필요성이 높아지면서 항공기 인도에서 퇴역에 이르기까지 서비스 수요가 크게 증가할 것"이라며 "이런 서비스에는 운영 유지 보수, 기단 현대화, 교육 및 훈련 등이 포함된다"고 전했다. 이 밖에도 아시아 태평양 지역 내 서비스 사업 중, 유지 보수 시장은 동기간 동안 430억 달러에서 1천90억 달러로 두 배 이상 성장할 것으로 내다봤다. 항공기 업그레이드와 현대화 부문도 51억 달러에서 130억 달러로 비슷한 수준의 성장을, 교육 및 운영 부문 역시 41억 달러에서 76억 달러로 증가세를 보일 전망이다. 에어버스는 향후 20년간 아시아 태평양 지역에서 약 99만9천명의 새로운 숙련된 인력에 대한 수요가 있을 것으로 내다봤다. 이는 전 세계 인력 수요의 약 45%에 해당한다. 여기에는 26만8천명의 신규 조종사, 29만8천명의 신규 기술자 그리고 43만3천명의 신규 객실 승무원이 포함된다. 크리스티나 아귈러 그리더 에어버스 고객 서비스 수석 부사장은 "아시아 태평양은 애프터마켓 서비스 부문에서 가장 큰 성장과 활동이 이루어지는 지역으로 추가적인 효율성 강화 및 간소화, 책임감 있는 운영을 위한 많은 기회가 존재한다"며 "에어버스는 이러한 기회에 대응하는 과정에서 항공사 및 항공 업계를 지원하는 역할을 계속해 나갈 것"이라고 밝혔다.

2024.09.25 08:28신영빈

KISA, 19개국 대상 사이버보안 역량 강화 나선다

한국인터넷진흥원(KISA)이 지능화된 글로벌 사이버 위협에 대한 공동 대응을 위해 각국 사이버보안 역량을 높이기 위한 국제협력의 장을 마련했다. KISA는 오는 28일까지 더프리마호텔 종로에서 전 세계 침해사고 대응팀 전문가들을 대상으로 '아시아-태평양 정보보호 센터 보안 교육 과정(APISC) 침해사고대응 교육'을 진행한다고 23일 밝혔다. 특히 이번 교육에는 아시아·태평양 지역을 포함한 19개국에서 온 사이버보안 전문가들이 참가하게 된다. 교육 과정에는 클라우드 보안과 디지털 포렌식 실습이 포함돼 있다. 이는 사이버 공격이 다양화되고 고도화되는 상황에서 실무 능력을 향상시키기 위해 추가된 심화 과정이다. 이를 통해 각국이 실질적인 대응 능력을 배양할 수 있을 것으로 기대된다. 이번 행사에는 대만, 인도, 말레이시아 등 주요 국가뿐 아니라 피지와 바누아투 같은 태평양 제도 지역 국가들도 참가한다. 특히 태평양 사이버보안 네트워크(PaCSON)와 협력해 더 많은 국가들이 이번 교육에 참여하게 됐다. 지난 2005년 시작된 APISC 프로그램은 그동안 69개국에서 459명의 사이버보안 전문가를 배출해왔다. 이번 교육은 특히 KISA가 유럽 공인기관(TF-CSIRT)으로부터 인증을 받은 강사진이 진행해 국제적인 신뢰도를 더욱 높일 예정이다. 이상중 KISA 원장은 "이번 교육을 통해 각국이 사이버 위협에 신속하게 대응할 수 있도록 협력 체계를 강화할 것"이라며 "글로벌 사이버보안 중추 기관으로서 국제사회의 협력과 공조를 적극 지원하겠다"고 밝혔다.

2024.09.23 14:38조이환

오픈AI 'o1'로 AGI 시대 성큼…"정부·기업, 개발 투명성 고려 필수"

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개하면서 일반인공지능(AGI) 시대를 향해 한 걸음 더 나아갔다는 평가를 받는다. 이달 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 o1 프리퓨 버전과 미니 버전을 블로그를 통해 공개했다. 이 모델 시리즈는 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제를 해결할 수 있다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. AI 업계가 고도화된 기술을 쏟아내고 있는 만큼 중요하게 부각되는 부분도 생겼다. 바로 AI 규제다. 현재 미국은 캘리포니아 AI 안전법을 통과시켜 개발 투명성과 안전성 부각에 나섰다. 유럽연합(EU)은 물론이고 캐나다와 영국, 일본도 마찬가지다. 이에 발맞춰 국내서도 최소한의 투명성 관련 규제가 필요하다는 의견이 나오고 있다. AGI 시대로 다가갈수록 AI 기반 솔루션과 결과물이 예측 불가하다는 이유에서다. 법무법인 태평양 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 고도화된 AI 시스템이 산업계에 안착하기 위해 필요한 법안에 대해 이야기 나눴다. 생성형 AI와 관련한 딥페이크, 저작권 문제, 근로 환경 등 이슈에 대한 의견도 공유했다. 법무법인 태평양은 AI팀 활동을 올해 초 본격화했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. Q. 지난주 오픈AI가 사람처럼 추론할 수 있는 고급 모델을 내놨다. 산업계가 AI 시스템 고도화를 신속히 진행하고 있다. 이럴수록 AI 규제 필요성이 더 높아지지 않을까. 윤: 그동안 기업이 AI 시스템 고도화를 위한 기술을 꾸준히 내놨다. 앞으로 기존 개발 틀을 벗어나진 않을 것 같다. 다만 고도화된 AI 시스템으로 무엇을 만들지 아무도 예측할 수 없다. 결국 AGI 등 고도화된 AI 시스템이 산업에 안착하려면 최소한 규제는 필요할 것이다. 이중 개발 투명성이 가장 중요하다. 정부가 개발자나 AI를 사용하는 기업에 데이터 사용 방식이나 모델 알고리즘에 대해 질문을 요구할 수 있는 규제가 필요하다. 다만 AI 산업이 어느 정도 성장한 단계에서 해당 규제를 추진해야 할 것이다. Q. 기업이 정부에게 AI 기술을 의무로 공개하는 법 정도로 이해하면 되는 건가. 조금 더 구체적으로 설명해 달라. 윤: AGI는 지금보다 훨씬 더 고도화된 AI 시스템이다. 그동안 전문가들은 AI 모델에서 파생되는 새 기술을 예측할 수 있었다. 반면 고도화된 AI 시스템이 출현하면, 예측할 수 없다. 기술 불확실성이 커진다는 의미다. 정부는 AI의 불확실성과 그로 인한 잠재적 위험을 관리하기 위한 최소한의 조치 정도로만 규제를 설정하면 된다. 개발자나 기업이 AGI로 특정 결정을 내릴 때 그 결정 과정이나 근거를 정부에 설명하거나 공개할 수 있는 체계다. 정부는 향후 이런 법안을 입법에 넣어야 한다. 이보다 더 강력한 규제는 삼가야 한다. 오히려 기술 중립성을 해칠 수 있다. Q. 현재 국내에선 현존 AI 기술로 인한 이슈가 많다. 딥페이크가 대표적이다. 정부가 딥페이크 피해 방지를 위해 여러 법안 제정을 추진 중이다. 충분히 피해를 최소화할 수 있을 것으로 보는가. 강: 방송통신위원회가 제정을 추진 중인 이용자보호법에는 딥페이크 피해 방지를 위해 AI로 생성된 콘텐츠에 AI 생성물 표시를 의무화하는 법 등을 도입할 것으로 보인다. 그러나 표시 의무 규정 법안만으로 문제를 완벽히 해결할 수 없다. 딥페이크 영상물에 AI 생성물 표시 의무를 부과하면, 일차적으로 허위 정보 확산을 방지하고 제작자·유포자에게 책임은 물을 순 있다. 그러나 딥페이크 제작자나 유포자의 거짓 고지 가능성이 있다. 이용자보호법이 문제 해결에 실효성있게 작동하려면 정부는 지금보다 디테일한 집쟁 정책을 운영해야 한다. Q. 최근 미국 캘리포니아주가 AI 안전법 'SB 1047'을 통과시켰다. 거대 AI 모델에 대한 강력한 규제를 담고 있는 법안이다. 일각에선 SB 1047이 책임소재와 범위가 과도하다는 지적이 나오고 있다. 이를 어떻게 평가하는지. 강: 해당 법안에는 AI로 인한 핵심 피해 방지를 위한 안전 평가 관련 내용과 AI 모델 개발자들에 대한 독립적 제3기관에 의한 감사, 보고의무, 학습을 포함한 AI 모델 기능을 중단시키는 전제 중단 기능 구현, 공공 안전 위협에 대한 징벌적 손해배상 등 내용을 담고 있다. AI가 가져올 위험을 통제할 수 있는 장치가 필요하다는 점에 대해서는 공감한다. 다만 이런 강력한 규제는 이미 기술·산업적으로 최정점에 서 있는 국가에서나 효율적일 수 있다고 본다. 오히려 시장에 진입하고자 하는 해외 경쟁업체들에 진입장벽으로 기능할 수도 있다. Q. 해당 법이 최종 승인되면 다른 나라 AI법에도 영향 미칠 전망이다. 국내 정부도 SB 1047과 노선을 같이할 수 있는 법안을 마련할 것으로 보는가. 강: 현재 과학기술정보통신부에서 제정을 추진하고 있는 AI 기본법은 AI 산업 진흥에 관한 법률이다. AI 시스템 규제에 초점을 맞추고 있는 법은 아니다. SB 1047처럼 AI 안전 평가, 제3자에 의한 감사·보고 의무 같은 강력한 규제 사항들이 포함되지 않을 가능성이 있다. 정부가 AI 관련 제도를 마련하는 과정에서 EU나 미국 등의 AI 관련 규제 정책 사례를 참고할 수는 있다. 다만 국내 AI 산업은 아직 성장단계에 있다. 과도한 규제가 가해질 경우 산업 자체가 위축될 수 있다는 점 고려해야 한다. 이후 고도화된 AI 시스템 대비를 위해 개발 투명성 등 적절한 규제를 추가하면 된다. Q. 저작권 이슈도 생성형 AI 산업서 많이 거론되는 주제다. 기업 노력만으로 해결할 수 있는 문제가 아니라는 평가가 이어지고 있다. 윤: 그렇다. 그동안 학습용 데이터를 무료로 이용하는 행위에 관대한 분위기였다. 챗GPT 출현 후 저작권 이슈가 나오고, 지난해 하반기부터 소송이 이어지면서 분위기가 달라졌다. 데이터 활용이 유료로 전환될 필요가 있다는 목소리가 나와서다. 이미 데이터 학습을 AI 모델에 충분히 진행한 업체나 대기업은 이에 동의하는 입장이다. 저작권 이슈는 생성형 AI 산업계와 저작권 관련 업계가 공감대를 형성해야 한다고 본다. 이는 법 마련보다 더 시급한 과제다. 지난해 저작권위원회와 문화체육관광부가 생성형 AI 저작권법 제정에 나선 바 있다. 안타깝게도 결과가 잘 안 나왔다. 당시 양측 공감대가 없었기 때문이라고 본다. 지난해 국회도 저작권법 논의 때 해결 주제를 이야기하긴 했다. 아직 마침표를 찍지 못했다. 정부가 나서서 속도감 있게 생성형 AI 산업계와 저작권 관계자 등으로부터 의견을 충분히 모으는 역할을 해야 할 것 같다. Q. 생성형 AI가 산업에 도입되면 근로 환경도 변할 것이란 전망이 나오고 있다. 기업이 직원을 AI로 대체하는 과정에서 법률적 문제를 겪을 것으로 보인다. 윤: 단정 짓기 어려운 문제다. 국내에 AI와 근로법이 충돌한 사례가 아직 없기도 하다. 다만 기업이 신규 채용을 줄이는 방식을 가장 합리적인 선택으로 볼 것 같다. 이 부분에서도 정부 역할은 필요하다. 기업이 신규 채용을 너무 줄이면 정부가 정책을 통해 관리를 해야 한다. 기업과 근로자 공감대 형성도 도와야 할 것이다. Q. 이슈를 종합해 볼 때 앞으로 AI 윤리 중요성이 높아질 것 같다. 최근 기업들이 사내에 AI 윤리위원회를 설치해 AI 개발·활용에 지켜야 할 수칙을 정하는 추세다. 올바른 방향으로 가고 있다고 보는가. 강: 최근 대기업 중심으로 AI 거버넌스를 추진 중인 걸로 알고 있다. AI를 개발·활용할 때 지켜야 하는 원칙 틀을 만드는 추세다. 이런 원칙은 국내에서 한 10개쯤 나와 있다. 문제는 원칙에 디테일이 부족하다는 점이다. 사실 이런 건 법률가들이 잘할 수 있는 업무다. 현재 법률 지식과 기업 사정에 가장 알맞은 디테일을 만들어야 해서다. 그렇지 않으면 거버넌스를 만들어도 AI 이용·개발에 충분히 적용할 수 없을 것이다. Q. 국내 기업이 AI 윤리위원회 설치를 활성화하려면 무엇이 필요한가. 강: 모든 기업이 AI 윤리위원회 필요성을 알고 있다. 다만 위원회만 만들고 끝나는 게 아니라, 실제 회사 내에서 높은 수준의 중요성을 가져야 한다. 이사회 의장 또는 최고경영자가 이를 정말 중요하게 생각해야 한다. 이들이 위원회를 지지해야 결정권도 가질 수 있어서다.

2024.09.18 13:19김미정

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

"AI 챗봇 '과잉 공감' 경계해야"…나르시시즘·망상 키울 수도

'보안 올림픽' 4연승 박세준 "K-보안, 글로벌로 가야"

공공 클라우드 전환 앞장서는 美정부…한국은 '제자리걸음'

李대통령 "국정운영 중심에 언제나 국민"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.