"생성형 AI 도입, 불확실성 리스크부터 해소돼야"
인공지능(AI)이 세상을 삼키고 있다. 일상생활뿐 아니라 첨단 비즈니스 영역까지 뒤흔들고 있다. 특히 챗GPT를 비롯한 생성형 AI는 다양한 산업 분야의 기본 문법을 바꿔놓으면서 새로운 혁신의 밑거름이 되고 있다. 반면, 기업에서는 AI 도입이 경쟁력 강화를 위한 기회라는 점을 알면서도 불확실성을 포함한 위험 요인 때문에 도입을 주저하고 있는 것도 현실이다. 지디넷코리아는 창간 24주년을 맞아 법무법인 세종의 AI센터와 함께 이런 변화를 진단하는 '젠(Gen)AI 시대' 특별 기획을 마련했다. 이번 기획에서는 기업이 AI 규제에 효과적으로 대응하면서 도입 가능한 AI 거버넌스에 대해 살펴본다. 아울러, 소프트웨어, 통신, 인터넷, 헬스바이오, 유통, 전자, 재계, 자동차, 게임, 블록체인, 금융 등 11개 분야별로 AI가 어떤 변화를 일으키고 있는 지 심층 분석한다. 또 AI 기술 발전과 함께 논의되어야 할 윤리적, 사회적 문제들에 대한 다각적인 논점을 제시해 건강한 AI 생태계 조성에 기여하고자 한다. [편집자주] 최근 생성형 AI가 전 산업 분야를 아우르는 하나의 거대한 트렌드로 자리 잡으면서 AI 플랫폼 구축에 나선 기업들이 점차 늘어나고 있다. 여러 산업 현장에 적용돼 가시적 성과를 내고 있는 AI 기술이 빠르게 확산되고 있지만 정작 AI 부작용을 염려해 사업에 활용하는 데 주저하고 있는 곳도 많은 상태다. 생성형 AI를 전면 도입할 경우 보안, 오작동, 정보 유출 등 여러 문제가 나타날까 우려돼서다. 실제로 한국경영자총협회가 주요 50개 기업의 AI 도입 실태를 조사한 결과, 챗GPT 같은 생성형 AI를 회사 차원에서 사무직군에 도입했다는 응답은 38%로 집계됐다. 10곳 중 4곳만 도입했다는 의미다. AI를 회사 차원에서 도입하지 않은 기업들은 '정보 유출(41.9%)'을 가장 많이 우려했다. 이어 '준비 기간 필요(29%)', '업무 특성상 필요하지 않음(16.1%)' 순으로 높게 나타났다. 현재 AI를 도입하지 않은 기업 중 29%는 향후 AI를 도입할 예정이라고 답한 반면, 71%는 향후에도 도입할 계획이 없다고 답했다. 이 같은 분위기 속에 법조계는 기업들의 AI 리스크 관리와 관련한 새로운 조직을 앞 다퉈 만들고 있다. AI를 업무에 접목할 방법을 연구하는 동시에 AI 발전에 따른 각종 법률적인 문제점에 대해서도 대비하고 있다. 각 그룹에서 차출된 인력으로 '챗GPT 태스크포스(TF)'를 꾸린 법무법인 광장과 국내 최초로 AI팀을 발족한 법무법인 태평양이 대표적이다. 특히 법무법인 세종은 한 발 더 앞서 올해 1월 'AI·데이터 정책센터'를 발족하고 인재 영입에 공을 들였다. 초대 센터장으로 윤종인 전 개인정보보호위원회 위원장을 고문으로 영입했고, 지난해 12월엔 4차산업혁명위원회 위원, 쿠팡 개인정보보호책임자(CPO) 등을 역임한 장준영 파트너변호사(사법연수원 35기)도 합류했다. 현재 세종에서 윤 위원장은 AI 데이터 정책연구소 소장을, 장 변호사는 AI센터장을 맡아 AI·데이터 관련 기업을 대상으로 법률 리스크를 최소화하는 맞춤형 법적·정책적 자문을 제공하고 있다. 장 센터장은 "윤 소장이 맡은 AI 데이터 정책연구소는 AI과 관련한 '싱크탱크' 역할을, AI센터에선 실제 현장에서 고려해야 하는 AI 전 단계 프로세스를 조언해주는 역할을 맡게 됐다"며 "세종 AI센터에선 ▲AI 거버넌스 구축 ▲데이터 매니지먼트 시스템 마련 ▲글로벌 거버넌스 릴레이션십(GR) 등을 중심으로 기업들에게 AI 도입과 관련된 전반적인 관리를 제공해 줄 수 있다는 점이 강점"이라고 설명했다. 다음은 장준영 법무법인 세종 AI센터장과의 일문일답. Q. 법무법인 세종 AI센터의 역할은 무엇인가 A. 생성형 AI가 등장한 후 대부분의 기업들이 의사결정을 하는 것뿐 아니라 전반적인 업무 프로세스에 AI를 도입하려는 움직임이 많아졌다. 기업들이 LLM(거대언어모델)을 기반으로 RAG(검색 증강 기술), 파인튜닝(미세조정) 등을 접목하는 과정에서 자문을 요청하는 경우가 많아 전문적으로 이들을 돕기 위해 업계 최초로 AI센터를 만들게 됐다. 법무법인 세종 AI센터는 변호사뿐 아니라 비(非)변호사들인 AI 전문가들이 대거 합류했다는 점도 특징이다. 하나은행에서 정보보호본부 상무를 맡았던 이주환 고문이 최근 합류한 것이 대표적인 예로, 앞으로 정보보안, AI 전문가들을 외부에서 꾸준히 영입해 경쟁력을 높일 계획이다. 이를 통해 기존 컨설팅 회사에서 맡았던 업무들을 AI 산업과 관련해선 '세종 AI센터'에서 일괄적으로 처리할 수 있게 될 것으로 보인다. 올해는 AI 정책이 정립되는 중요한 해라고 보고 과학기술정보통신부, 방송통신위원회 등에서 자문 활동도 적극 펼칠 계획이다. Q. 세종 AI센터에서 하는 역할 중 'AI 거버넌스 구축'을 가장 강조하고 있다 A. AI가 갖는 가장 강력한 특징은 '불확실성'이다. LLM이 기존에는 판별형이었으나, 생성형 AI 시대에선 추론해주는 컴퓨팅 기술이 적용돼 연산 과정이 예측 불가 수준으로 발전했다. 개발자들이 모를 정도다. 이런 상황에서 기업들이 도입을 주저하는 것은 어찌보면 당연한 일이다. 기업들이 자칫 경쟁력을 잃을 수 있는 상황에서 AI 리스크를 관리하고 안정적으로 서비스를 더 혁신적으로 바꿀 수 있는지가 최대 과제가 됐다. 이에 세종 AI센터는 ▲위험 통제 ▲혁신 이라는 두 가지 핵심 키워드를 가지고 각 기업들이 AI 거버넌스를 제대로 구축하고 있는지 체크하고 있다. Q. '데이터 매니지먼트 시스템' 마련도 세종 AI 센터의 중요한 역할로 꼽았다. 정확히 어떤 업무를 하는 것인지 궁금하다 A. AI와 관련된 데이터를 수치화해 단순 레벨로 알려줄 수 있는 관리 체계가 마련돼야 위험을 제대로 감지할 수 있다고 생각한다. 데이터 수집, 구매, 이용, 결합 과정에서의 위험도를 수시로 체크할 수 있어야 비용 등 문제가 발생됐을 때의 대처 방안을 제대로 판단할 수 있기 때문이다. 그 과정에서 개인정보 침해, 유출 등의 가능성을 지적하는 이들도 있는데 세종 AI센터에선 레드팀, 블루팀, 퍼플팀 등으로 나눠 모의훈련 실시를 통해 실제 사고를 최대한 방지할 수 있도록 지원하고 있다. 또 영리를 추구하는 기업들이 개인정보를 활용해 고객을 유인하기 위해선 AI 기술을 사용하는 것이 필수적이라고 본다. 데이터 관리 체계가 갖춰지면 데이터를 고부가가치로 활용할 수 있는 자산으로 잘 활용할 수 있다. 다만 데이터 관리 체계를 기반으로 한 AI 기술은 개인정보 관리 체계와 같이 갈 수밖에 없는 특성이 있다. 이런 기업들이 개인정보 유출에 대한 근본적 예방책을 잘 마련하고 AI 거버넌스를 제대로 구축할 수 있도록 컴플라이언스 교육에도 적극 나서고 있다. Q. 미국과 유럽에서 AI 규제에 대한 법제화에 속도를 내고 있다. AI 규제법에 대한 세계적인 논의가 활발해지고 있지만 우리나라는 'AI 기본법'도 없는 게 현실이다. 어떤 방향으로 'AI 기본법'이 제정돼야 할 것 같은가 A. 과기부를 중심으로 'AI 기본법' 제정이 추진돼 왔지만 시민단체 등이 법안에 명시된 '우선허용·사후규제' 원칙에 대해 반대를 표명하면서 어려움을 겪고 있다. 그 사이에 EU에선 세계 최초의 'AI 규제법'을 만들었고, 미국에서도 연방 정부 기관들이 AI 부작용 방지를 위한 안전장치를 의무화하는 정책을 발표했다. EU는 기업들을 대상으로 강력한 규제를, 미국은 정부 부처가 중심이 돼 안전성을 강조한다는 점에서 접근 방식이 다르다. EU가 데이터 프라이버시, 온라인 증오 등 다양한 분야에서 글로벌 표준을 만들어 가는 '브뤼셀 효과(The Brussels Effect)'를 AI에서도 이어갈 지 지켜봐야 겠지만, 우리나라는 '하이브리드형 규제'로 방향을 잡는 게 중요할 것 같다. 이용자, 기업, 정부 당국 등 모든 이해관계자들이 다 공감할 수 있는 신뢰성, 안전성을 확보할 수 있을지에 대한 기준이 필요한 상태지만, 위험도에 따라 AI를 평가하는 EU식 규제는 적절한 지 의문이다. 일단 우리나라는 'AI 기본법'이라는 큰 틀이 만들어져야 혁신이냐, 통제냐에 대한 AI 방향을 잡아 갈 수 있을 것 같다. 규제에서 기술중립성 원칙을 존중해야 기술이 발전한다는 점을 다양한 경험을 통해 배웠다. 우리나라도 기술중립성을 AI에 어떻게 반영해야 할 지가 과제인데 국내외 기준들을 참고해 최소한의 신뢰성, 안전성을 고려해야 할 필요가 있다고 본다. Q. 최근 생성형 AI 도입을 고려하는 기업들이 많아지고 있다. 그 과정에서 고려해야 할 법이 있는지 궁금하다. 국내에서 AI 트렌드에 대응을 잘 하고 있는 분야가 있는지도 알려달라 A. 개인정보법과 관련해 개인정보보호위원회가 지난 3월 말 가이드라인을 제시한 것을 참고하면 좋을 것 같다. 당시 개보위는 LLM을 개발‧배포하거나 이를 기반으로 AI 서비스를 제공하는 6개 사업자에 대해 개인정보 보호의 취약점을 보완하도록 개선 권고를 의결한 바 있다. LLM 학습 과정에서 주민등록번호, 신용카드번호 등 개인정보가 포함될 수 있다는 점에서다. 저작권 문제도 고려해야 할 부분이다. 글로벌 LLM 시장에서도 아직 룰(Rule)이 정해지지 않았는데, 학습 행위에 대한 면책 범위를 어디까지 둘 것인가가 과제인 듯 하다. 우리나라에선 AI 학습에 쓰이는 자료에 저작권을 면책해주는 저작권법 개정안이 지난 2021년 발의됐다. 당시에는 이를 반대하는 이들이 없었지만 2022년 말께 생성형 AI가 등장한 후 진화된 모습을 보이자 여론이 뒤바뀌었다. 퍼블리시티권(초상, 성명, 음성과 같이 개개인을 특징짓는 요소를 상업적으로 쓸 수 있는 '인격표지영리권')도 고려 대상이 될 것 같다. AI 흐름에 잘 적응하고 있는 산업군은 지난 2021년 AI 가이드라인을 내놓은 금융권인 것 같다. 국민에게 미치는 파급력이 커 선제적으로 나선 듯 한데, 우리나라 기업들이 참고해 AI 정책을 만들어 나가기 좋은 사례다. 통신사들도 이용자들의 데이터를 처리하는 데 고민하고 있다는 점에서 관련 규제에 잘 대응하고 있다고 보여진다. Q. 생성형 AI 확산으로 근로 환경에도 변화가 생겼다. 기업들이 이와 관련해 고려해야 할 부분이 있다면 A. AI 도입이 기업들의 원가절감에 도움이 될 것으로 보인다. 일부 기업들이 AI의 등장으로 구조조정을 하며 인력을 대체하려는 움직임이 있지만, 우리나라 근로 환경에선 현실적으로 쉽지 않다. 기업들은 인원 감축을 통한 효율화를 추구하기 보다 경제적 효율성을 높이는 데 많이 사용할 수 있을 것이라고 보여진다. 다만 향후 AI 확산에 따라 장기적으로 노무, 근로 환경 이슈가 발생할 여지는 있다. Q. 마지막으로 생성형 AI 적용을 앞둔 기업들에게 어떤 조언을 하고 싶은가 A. 기업들도 생성형 AI의 불확실성을 고려해 이를 정확하고 공정하게 사용할 수 있도록 사전 준비를 철저히 해 나갈 필요가 있다. AI를 적용하기 전에 먼저 신뢰성, 안전성을 높이기 위해 나서는 것이 기업의 당연한 책무라고 생각한다. 부작용을 알면서도 그냥 적용한다는 것은 AI 기술을 검증없이 막무가내로 출시하는 기업들과 다를 바가 없다고 본다. 기업들은 문제가 발생하면 파급력이 큰 데다 비난을 받을 가능성이 높은 만큼 리스크를 최소화하기 위해 다소 보수적으로 접근을 해 나갈 필요도 있어 보인다. 이처럼 기업들이 여러 가지를 신경쓰려면 사실 비용도 만만치 않게 든다는 점도 고려해야 한다. 미국은 사전 규제가 다소 완화돼 있는 반면, 사후 규제가 굉장히 강력하다. 글로벌 빅테크 기업들은 위험을 감수하면서 무모한 서비스를 내놓은 후 대규모 자금으로 규제에 대응할 때도 많지만, 우리나라는 그렇게 하지 못할 때가 많다. 이를 잘 아는 기업들의 정책을 참고하거나, 도움을 받는 것도 필요해 보인다.