• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 컨택'통합검색 결과 입니다. (11건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[기고] AI 워싱, 신뢰를 위한 규제와 책임의 조화

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 기술이 산업 전반에 빠르게 확산되면서 'AI 워싱(AI Washing)'이라는 새로운 마케팅 현상이 두드러지고 있다. 최근 미국에서 소비자들이 '애플 인텔리전스'라는 AI 기능을 강조하는 광고를 믿고 아이폰16 등의 제품을 구매했으나 실제로는 이 기능들이 제한적이거나 아예 제공되지 않았다고 주장하면서 애플을 상대로 집단소송을 제기했다. 이는 단순한 과장 광고를 넘어 이른바 AI 워싱에 해당된다는 주장이다. AI 워싱은 말 그대로 'AI를 덧씌운 세탁 행위'다. 기업이 실제로는 AI 기술을 거의 사용하지 않거나 일부만 적용했음에도 마치 첨단 AI를 전면적으로 도입한 것처럼 홍보하는 행위를 말한다. 이는 친환경적이지 않은 기업이 마치 친환경 경영을 하는 것처럼 홍보하는 '그린 워싱(Green washing)'과 유사한 개념이다. 최첨단 AI 기술을 사용한 제품이나 서비스인 것처럼 과장해 소비자의 관심을 끌거나 선택에 혼동을 주고 AI 제품의 기능을 과장해 투자 유치 등에 나서는 것이다. AI 워싱이 만연하게 되면 소비자는 AI의 성능에 의문을 갖게 될 것이다. 실제 사용을 통해 부정적 경험이 누적될 경우 AI 기술 자체에 대한 신뢰도가 저하될 수 있다. 실제로 AI를 제대로 활용하지 않는 기업들이 '혁신 기업'으로 포장되면 진짜 기술을 가진 기업에 투자 자원이 제대로 분배되지 않아 기술 발전이 저해된다. 또 과장된 경쟁 환경 속에서 기업들이 무리한 목표를 세우고 추진할 경우 자원 낭비는 물론 프로젝트 실패로 이어져 오히려 전체 산업의 혁신 속도를 늦출 수 있다. AI 워싱을 직접적으로 규제하는 특별 법령은 아직 국내외에 마련돼 있지 않으나 기존의 소비자 보호 및 공정 거래 관련 법령을 통해 규제가 가능하다. 국내의 경우 표시광고법 등이 적용될 수 있고 미국에서는 증권거래위원회(SEC)의 증권법과 연방거래위원회(FTC)의 소비자 보호 규정 등이 적용되고 있다. 미국의 경우 SEC는 지난해 투자자문사 델피아와 글로벌프리딕션스가 AI 기능을 허위 광고했다며 각각 22만5천 달러(한화 약 3억원), 17만5천 달러(한화 약 2억3천400만원)의 벌금을 부과했다. FTC는 기업들에게 AI 활용 정보를 명확하게 표시하고 이를 공개하도록 하는 등 AI 워싱 대응에 적극적인 모습을 보이고 있다. 국내에서는 아직 AI 워싱에 대한 직접적인 제재 사례는 없다. 다만 공정거래위원회가 올해 주요업무 추진계획을 발표하면서 AI 분야와 관련해 'AI 워싱' 행위 감시 및 실태조사를 추진하겠다고 밝힌 바 있다. 또 서울 YMCA와 같은 시민단체들이 애플의 사례를 들어 공정거래위원회 조사 요청 및 검찰 고발 촉구를 검토하는 등 움직임도 보이고 있다. 다만 이 같은 현상을 오로지 기업의 윤리 문제만으로 치부할 수는 없다. AI의 개념 자체가 포괄적이고 모호하다는 점, 현행법상 "어디까지가 진짜 AI인가"에 대한 명확한 판단 기준이 없다는 점은 기업 입장에서 판단과 홍보에 혼선을 불러올 수 있다. 인공지능기본법(AI기본법)이 올해 제정됐지만 그 정의조차 '학습·추론·판단 등 인간 지능의 전자적 구현'이라는 추상적 표현에 머물러 있다. 규제 체계가 기술 발전 속도를 따라가지 못하는 상황에서 기업들이 기술적 용어에 의존할 수밖에 없는 유인도 분명히 존재한다. 이러한 구조적 한계 속에서도 기업은 소비자 신뢰를 확보하고 법적 리스크를 줄이기 위해 AI 기술의 실제 사용 범위, 성능, 한계 등을 투명하게 공개해야 한다. 단순히 'AI 기반', '지능형'이라는 문구만으로 광고하지 말고 기술의 적용 방식과 효과에 대한 구체적인 설명을 수반해 소비자의 오인가능성을 줄여야 한다. 내부적으로도 기술 검증, 홍보 문구 사전 검토 등의 컴플라이언스 체계를 갖추는 것이 필요하다. AI 기술이 사회 전반에 빠르게 확산되고 있는 지금이야말로 규제의 명확화와 기업의 책임 있는 자세가 모두 필요하다. 허위와 과장의 영역에서 기술의 신뢰는 생기지 않는다. 소비자 보호와 기술 혁신, 두 마리 토끼를 잡기 위해서는 모두의 노력이 절실한 시점이다.

2025.04.25 17:09법무법인 태평양 강정희

"고객센터 상담 품질↑"…아이브릭스, '에이전트 티' 출시

아이브릭스가 컨택센터 상담 품질 문제를 개선하기 위해 인공지능(AI) 교육 솔루션을 공개했다. 아이브릭스는 AI 트레이닝 솔루션 '에이전트 티(Agent-T)'를 개발·출시했다고 18일 밝혔다. 에이전트 티는 컨택센터 신입 상담사의 모의 상담 트레이닝을 지원하는 생성형 AI 기반 솔루션이다. AI가 학습 내용을 분석하고 평가해 상담 역량을 높일 수 있도록 돕는다. 상담 애플리케이션을 통해 실제 업무 프로세스와 유사한 학습 환경을 제공한다. 상담 종료 후에는 상담 분류·요약 등의 후처리 작업을 실습함으로써 신입 상담사가 업무에 신속하게 적응할 수 있도록 설계됐다. 해당 솔루션은 신입 상담사에게 생성형 AI로 학습한 다양한 상담 사례를 제공하고 상황별 대응 능력 향상을 위해 상담 트레이닝과 후처리, 학습 분석, 학습 관리의 네 가지 기능을 제공한다. 우선 상담 트레이닝 기능을 통해 기업 고유의 상담 유형을 기반으로 채팅·전화 상담 트레이닝이 가능하다. 특히 딥러닝 음성 합성(TTS) 기술로 성별, 연령, 고객 상황별 목소리를 제공해 실제 상담 환경에서 접할 수 있는 여러 고객 유형에 대해 미리 체험하고 연습할 수 있다. 또 실제 업무환경과 유사한 애플리케이션을 통해 후처리 작업이 가능하다. 트레이닝 결과 다시듣기 기능과 우수 상담사례 기능으로 상담사 학습결과와 비교 분석할 수 있다. 에이전트 티는 학습 분석 기능으로 상담내용에 대한 세부 항목별 서비스품질지수(KSQI)를 제공한다. 후처리 내용과 주요 키워드에 대한 상세 분석 기능도 갖췄다. 관리자는 실시간 데이터 분석을 통해 개인별, 상담유형별, 그룹별 학습 결과를 실시간 모니터링 할 수 있다. 상담사별 학습 취약점을 피드백하고, 학습 추천 기능을 통해 상담내용을 보완할 수 있다. 채종현 아이브릭스 대표는 "컨택센터가 기업과 고객 간의 중요한 커뮤니케이션 채널로 자리 잡고 있는 만큼 상담사의 역량 강화를 위한 체계적인 교육 환경 조성이 필요하다"며 "신입 상담사들에게 충분한 트레이닝 기회를 제공해 이직률을 낮추고 상담 품질을 높임으로써 기업 브랜드 이미지에도 긍정적인 영향을 줄 수 있도록 보다 장기적인 관점에서 트레이닝 시스템을 개선하도록 노력하겠다"고 설명했다.

2025.02.18 13:42김미정

베스핀글로벌-디케이테크인, 컨택센터 특화 AI 음성봇 개발 맞손

베스핀글로벌이 카카오 자회사 디케이테크인과 차세대 인공지능(AI) 음성봇 솔루션 개발에 나선다. 6일 베스핀글로벌은 디케이테크인과 AI 컨택센터(AICC) 기술 강화 및 공동 비즈니스 추진을 위한 업무 협약을 체결했다고 밝혔다. 디케이테크인은 카카오 IT 솔루션 개발 자회사로 다년간 축적한 음성 인식(STT), 음성 합성(TTS) 기술을 보유하고 있다. 양사는 이번 협약 체결을 기반으로 대규모언어모델(LLM) 기반 AI 컨택센터 솔루션의 개발과 공급을 위해 협력한다. 디케이테크인은 실시간 음성 데이터 처리 및 높은 정확도의 자연어 분석(NLU) 기술을 보유하고 있다. 이를 바탕으로 복잡한 고객의 요청도 빠르게 처리할 수 있으며, 한국어, 영어, 중국어 등 총 19개의 다양한 언어를 지원한다. 디케이테크인의 AI 컨택센터 플랫폼 '카카오 i 커넥트 센터(Kakao i Connect Center)'는 카카오 i 플랫폼을 통한 옴니 채널 기반의 대화형 AI 기술을 활용, 고객 서비스 및 비즈니스 커뮤니케이션에 최적화된 솔루션을 제공하고 있다. 기업의 요구사항에 따라 AI 에이전트의 기능과 적용 범위를 유연하게 조정할 수 있는 것도 장점이다. 베스핀글로벌의 '헬프나우 AI(HelpNow AI)'와 디케이테크인의 '카카오 i 커넥트 센터(Kakao i Connect Center)'를 연계해 생성형 AI 기술을 활용한 차세대 음성봇 솔루션을 개발할 계획이다. 이 솔루션은 신뢰성 높은 고객 서비스 구현과 기업의 업무 효율성 극대화에 초점을 맞춘다. 또한 각자의 기술적 강점을 결합, AI 컨택센터 사업을 함께 추진하며 다양한 산업 분야에서의 활용을 확대할 예정이다. 베스핀글로벌의 '헬프나우 AI(HelpNow AI)'는 각 분야의 특성에 맞게 최적화된 챗봇/콜봇, 보이스봇, AI 어시스턴트를 직접 개발·운영할 수 있는 LLM 기반 AI 에이전트 플랫폼이다. ▲에너지 ▲교육 ▲공공 ▲제조 ▲관광 ▲CS 등 다양한 산업군에서 이미 성공적으로 활용되고 있다. 멀티 LLM 연동은 물론, RAG 기반 답변과 멀티 에이전트 생성 관리 기능 등을 통해 방대한 데이터를 효율적으로 활용, 맞춤형 AI 에이전트를 신속하고 간단하게 구축 관리할 수 있다. 또한 기존 콜센터 시스템에 음성 인식 및 합성, 상담사 지원 등의 AI 기술을 연계하여 AI 컨택센터로의 전환을 올인원으로 지원한다. 디케이테크인의 김계영 부사장은 "컨택센터와 생성형 AI 기반 음성봇의 결합은 고객 서비스의 미래를 열어가는 중요한 발걸음이 될 것”이라고 말하며 "AI 역량을 바탕으로 AI 컨택센터의 새로운 기준을 제시, 고객의 경험 혁신과 기업 가치 극대화에 기여하겠다"고 전했다. 허양호 베스핀글로벌 한국 대표는 "음성 인식과 합성, 자연어 처리에 뛰어난 역량을 보유한 디케이테크인과의 이번 업무 협약 체결이 AI 컨택센터 시장의 성장을 이끄는 중요한 계기가 되길 바란다"며 "베스핀글로벌은 앞으로도 다양한 산업군의 AI 기반 디지털 전환을 주도하며, 기업과 기관의 경쟁력 강화를 위해 앞장서겠다"고 덧붙였다.

2025.01.06 10:25남혁우

[현장] "국내 클라우드 컨택센터 선도할 것"…ECS텔레콤, 'CX원' 론칭

"클라우드와 서비스형 소프트웨어(SaaS) 시대가 열리면서 이제 국내에서도 클라우드 컨택센터(CCaaS)가 본격적으로 시작되고 있습니다. 전 세계 6천여 고객사를 보유하고 가트너가 검증한 CCaaS 리더 기업 나이스(NICE)와 협력해 이 전환을 선도하고자 합니다." 현해남 ECS텔레콤 대표는 29일 서울 강남구 그랜드 인터컨티넨탈 서울 파르나스에서 열린 'CX원(CXone) 플랫폼' 국내 론칭 행사에서 이같이 말했다. ECS텔레콤은 지난 25년간 글로벌 솔루션을 국내 고객사를 위해 패키지화해 제공해온 기업으로, 이날 행사에서 클라우드 컨택센터(CCaaSS) 기업인 나이스와의 전략적 파트너십을 발표하고 'CX원'을 선보였다. CCaaS란 클라우드 기반의 컨택센터 솔루션을 서비스 형태로 구독해 사용하는 모델로, 이를 통해 기업은 별도의 인프라 구축 없이도 고객 상담 시스템을 운영할 수 있다. 이에 따라 기업들은 콜센터 운영시 필연적으로 발생하는 비용을 절감하고 시장변화에 대한 유연한 대처가 가능해진다. 현 대표는 국내 컨택센터 시장이 이제 막 클라우드와 SaaS로의 전환을 시작했다고 설명했다. 이에 따라 ECS텔레콤도 기존의 구축형 솔루션을 넘어 SaaS 형태의 서비스로 나아가고 있다. 그는 "고객의 요구, 시장, 기술의 변화에 따라 이제는 구축형보다는 SaaS 형태로 서비스를 제공하는 것이 필수인 시대"라며 "우리는 그 중 CCaaS가 고객사의 이익을 창출할 수 있는 가장 확실한 방향이라고 판단했다"고 강조했다. 유망한 장래성에도 CCaaS는 초기 구축 비용이 높아 국내 시장 규모만으로는 투자에 한계가 있었다. 이에 ECS텔레콤은 글로벌 네트워크와 기술력을 갖춘 파트너로 CCaaS 분야의 세계적인 리더인 나이스를 파트너로 선택했다. 현 대표는 "나이스는 CCaaS 분야에서 가장 '나이스'한 솔루션을 가지고 있다"며 "업계 글로벌 1위와의 파트너십을 통해 우리는 향상된 서비스를 고객에게 제공하고자 했다"고 말했다. 뒤이어 발표한 남정운 ECS텔레콤 파트장은 파트너사인 나이스의 탄탄한 기술·재정적 기반과 'CX원' 플랫폼의 기술적 강점에 대해 상세히 설명했다. 남 파트장은 ECS가 나이스의 탄탄한 재무 안정성과 기술력에 주목했다는 점을 강조했다. 실제로 나이스는 약 20억7천만 달러(한화 약 2조8천억원)의 연매출을 내는 글로벌 기업으로, 뱅크 오브 아메리카·비자·디즈니 등 전 세계 6천여 개의 고객사를 보유하고 있다. 또 CCaaS 분야에서 흑자를 내는 유일한 기업이며 3천명의 연구개발(R&D) 인력을 통해 지속적인 기술 개발을 하고 있다. 글로벌 리더 기업의 솔루션답게 'CX원'의 현지화 수준도 우수하다. 국내에 서비스를 도입하기 위해 2년간의 기술 검증을 거쳐 100% 한글화를 이뤘다. 또 이중화 설비를 갖춘 'ECS 보이스팝(Voice Pop)' 인프라를 구축해 안정적인 음성 품질을 제공한다. ISO‧SOC2‧PCI DSS 등 국제 보안 인증도 모두 획득해 국내 기업들이 안심하고 사용할 수 있다. 남 파트장은 "'CX원'은 검증된 파트너가 제공하는 별도의 구축이 필요 없는 서비스"라며 "고객사들은 AI 기반 상담 서비스, 셀프 서비스, 데이터 분석 등 6천개 기능을 사용할 수 있을 것"이라고 강조했다. 그러면서 "비용 부담 없이 효율적인 컨택센터 운영을 할 수 있다는 사례가 지속적으로 쌓인다면 장기적으로 국내 CCaaS 전환도 수월히 이뤄질 것"이라고 말했다. 이 행사에는 대런 러시워스 나이스 인터내셔널 사장도 참석했다. 런던에서 직접 서울을 찾은 러시워스 사장은 한국 시장 진출의 의미를 설명했다. 나이스가 한국 시장을 선택한 이유는 적시성‧적합성‧적절한 파트너십에 있다. 현재 한국 시장은 클라우드 도입이 빠르게 진행되고 있으며 ECS텔레콤이라는 강력한 로컬 파트너와의 협력을 통해 시너지를 낼 수 있기 때문이라는 설명이다. 그는 "적절한 시기에 적절한 파트너를 찾아 한국 시장에 진출하게 돼 기쁘다"며 "'CX원'을 통해 한국 기업들의 디지털 혁신을 지원하겠다"고 강조했다.

2024.10.29 13:06조이환

[기고] 인공지능 시대에 걸맞는 가명정보의 활용

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 올해 초 개인정보보호위원회는 가명정보 처리에 관한 가이드라인을 개정하면서 비정형 데이터의 가명처리 기준을 정립했다. 여기서 비정형 데이터란 이미지, 영상, 음성, 텍스트와 같이 정해진 규격이 없는 데이터를 뜻한다. 이 가이드라인에서는 인공지능(AI) 개발과 밀접하게 관련된 7가지 주요 비정형 데이터 가명처리 예시가 소개됐다. 필자 역시 최근 정부, 지방자치단체, 기업의 가명처리 수준을 심사하면서 가명정보가 AI 기술 확산에 필수적인 역할을 하고 있음을 실감하고 있다. 가명정보에 관한 제도는 지난 2020년 개인정보 보호법 및 신용정보의 이용 및 보호에 관한 법률 개정으로 국내에 처음 도입됐다. 가명정보 제도가 처음 도입됐던 당시만 하더라도 가명정보 전문가는 드물었고 가명정보의 활용도 주로 정부나 지방자치단체를 중심으로 이뤄졌다. 그럼에도 불구하고 시간이 지나면서 통신사, 카드사, 대형병원 등 사기업에서도 가명정보 제도를 활용하기 시작했다. 또 개인정보보호위원회에서 운영하고 있는 가명정보 전문가 풀도 150명으로 확대됐다. 가명정보란 개인정보 일부를 삭제하거나 대체해 추가 정보 없이는 특정 개인을 알아볼 수 없도록 처리된 개인정보를 의미한다. 이러한 가명정보는 통계작성이나 과학적 연구 목적 등을 위해서는 정보주체의 동의 없이도 활용이 가능하다. 비록 가명정보도 개인정보의 한 유형이지만 일반 개인정보와는 다르게 보다 자유로운 활용이 가능하다. 이 점에서 가명정보는 AI 학습데이터 구축에 필수적이다. 일반 개인정보는 개인정보 보호법에 따라 엄격한 통제를 받아 AI 기술 개발에 일정 부분 제약을 줄 수밖에 없기 때문이다. 최근에는 합성데이터 활용에 관한 논의도 활발하다. 가명정보 역시 개인정보의 한 유형이기에 산업계에서는 보다 자유로운 데이터 활용을 위해 개인정보로 보기 어려운 유형의 데이터인 합성데이터를 고안했다. 합성데이터란 실제 데이터가 아닌 컴퓨팅 알고리즘을 기반으로 실제 데이터의 통계적 특성이나 패턴을 모방해 인위적으로 생성한 데이터다. 합성데이터는 기존의 가명정보와 달리 원본데이터를 마스킹하거나 범주화하는 등 원본을 변조하지 않는다. 대신 원본의 통계적 분포로부터 모의데이터를 추출하는 방식으로 생성된다. 적절하게 생성된 합성데이터는 원본 데이터와 유사한 수준의 가치를 지니면서도 익명성도 확보할 수 있다. 따라서 법적인 제약 없이 자유롭게 활용이 가능하다는 장점이 있다. 개인정보보호위원회도 이를 고려해 올해 안에 합성데이터 생성 및 활용에 관한 구체적인 기준을 담은 가이드라인을 발표할 계획이다. 가명정보 제도가 도입되면서 정부가 국가 AI 기술 경쟁력 확보를 위해 보다 자유로운 데이터 활용 방안을 모색하고 있다는 점은 긍정적으로 평가할 만하다. 그럼에도 불구하고 AI 학습데이터 구축을 위한 길은 여전히 멀게 느껴진다. 가명정보와 합성데이터가 AI 기술 개발에 큰 도움이 되는 것은 사실이지만 이들을 생성해내기 위해서는 원본 데이터가 필요하다. 이러한 원본 데이터에는 개인정보가 포함될 수밖에 없다. 결국 가명정보나 합성데이터를 통한 AI 학습을 위해서는 원본 개인정보를 적법하게 보유해야 하는 문제가 생긴다. 대형 통신사, 병원 및 대기업 등은 AI 학습을 위한 충분한 양의 개인정보를 보유하고 있어 큰 문제가 되지 않을 수 있다. 이와 반대로 영세한 업체들의 상황은 다르다. 그들은 경쟁력 있는 AI 기술을 개발할 역량이 있더라도 학습에 필요한 원본데이터를 확보하고 있지 못한 경우가 많다. 물론 영세업체는 외부에 공개된 정보를 통해 데이터를 확보하려고 시도할 수 있지만 이것 만으로는 충분한 가치를 창출하기 어렵다. 결국 이미 데이터를 충분히 보유하고 있는 기업이나 정부로부터 정보를 받아와야 한다. 그렇지만 데이터가 경쟁력인 시대에 기업이 정보를 쉽게 넘겨줄 리 없고 개인정보 보호법도 정보의 이전을 쉽게 허용하지 않는다. 보유하고 있는 개인정보를 다른 제3자에게 이전함에 있어서는 정보주체의 동의가 필요하거나 한정된 용도로만 이전 받아 사용할 수 있다는 제약이 따르기 때문이다. 최근 한 AI 스타트업 사업자가 지방자치단체가 보유한 개인정보를 이전 받아 가명처리한 후 지방자치단체 사무에 활용될 AI 소프트웨어를 개발해 납품한 사례가 있었다. 사업적인 측면에서만 본다면 이 소프트웨어는 지방자치단체 사무에 국한되지 않고 다른 영역에서도 폭 넓게 활용될 충분한 가치가 있었다. 그런데 AI 업체가 지방자치단체로부터 원본 개인정보를 넘겨 받아 이를 가명처리 하기만 한다면 가명정보로 개발한 AI를 지방자치단체 사무 만이 아니라 보다 넓은 목적으로 활용해도 괜찮은 것일까. 애초에 원본 개인정보를 이전 받은 목적이 지방자치단체 사무를 위한 것이었다면 그 활용 범위를 넓히는 것은 쉽게 단정짓기는 어려운 문제다. 가명정보 제도가 도입되고 데이터 활용이 보다 자유로워지기는 했으나 이로 인해 혜택을 보는 것은 처음부터 데이터 확보에 우위를 가진 자들로 국한되고 있는 것은 아닌지 아쉬움이 남는다. 보다 근본적으로 AI 시대에 걸맞은 데이터 활용을 위해 정보의 이전을 활성화하는 제도적인 개선이 이뤄지기를 기대해본다.

2024.08.29 10:57법무법인 태평양 이준호

[기고] EU AI법 시행과 AI규제 방향

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 2013년작 영화 '그녀(Her)'에서 인공지능(AI) 서비스 사만다가 등장한다. 사만다는 이용자 맞춤형 소프트웨어(SW)인데 인간과 자연스러운 대화를 할 뿐만 아니라 대량 정보를 처리하면서 스스로 학습하고 인간과 교감을 하는 것처럼 보이는 단계까지 진화하는 모습을 보여준다. 이 영화는 AI 서비스가 등장한다면 어떤 모습일지를 풍부한 상상력으로 구현했다. 그 후 10년도 채 지나지 않아 챗GPT가 등장해 현실에서도 인간과 유사한 지능을 구현한 AI인 범용인공지능(AGI) 서비스가 상용화되는 날이 머지않아 올 것이란 기대를 갖게 됐다. 기술발전이 빠르게 진행되면서 AI기술과 그에 기반한 새로운 서비스를 어떻게 규제 영역으로 포섭하는 것이 좋을지에 대한 논의도 활발하게 진행되고 있다. 유럽연합(EU)은 2018년 일반 개인정보 보호법인 GDPR(General Data Protection Act)를 제정했다. 당시 개인정보 규제에 있어 전세계적인 영향력을 발휘함으로써 소위 브뤼셀 효과(Brussel effect)라는 신조어를 낳았다. 이처럼 AI 규제 분야에서도 선도적인 역할을 하고 있다. 그 결과 올해 8월 1일 AI에 관한 전세계 최초의 포괄적인 규제법인 EU AI법이 발효됐다. EU AI법은 부정적 영향을 줄 위험이 높을수록 더 엄격한 규제가 적용되게 구성됐는데 특정 제품이나 분야에서 AI 기술을 활용할 때 발생할 수 있는 위험 정도에 따라 허용할 수 없는 위험, 고위험, 제한된 위험 및 최소한의 위험으로 구분해 차등적으로 규제하고 있다. EU AI법 전문 제1조는 이 법의 목적으로 '인간 중심적이고 신뢰할 수 있는 AI의 활용을 촉진하고, EU내 AI 시스템의 유해한 영향으로부터 민주주의, 법령 및 환경 보호 등 EU 기본권 헌장에 명시된 건강, 안전 및 기본권을 높은 수준으로 보호'하는 것을 포함하고 있다. AI 시스템은 어디까지나 인간을 돕기 위한 것이어야 함을 전제하고 있고 자연히 인간의 기본적 권리를 침해할 가능성이 있는 AI 기술 활용은 금지된다. 이 법에서 명시하고 있는 금지된 AI 서비스로는 행동을 왜곡하고 정보에 입각한 의사결정을 방해해 심각한 피해를 입히는 잠재의식, 조작 또는 기만적 기술을 배포하는 경우, 직장 및 교육 기관에서 개인의 감정을 추론하는 경우, 인종, 종교적 신념, 성적 지향 등과 같은 보호되는 특성에 따라 개인을 분류하는 생체 인식 분류 시스템으로서의 AI 시스템, 인터넷이나 CCTV 영상에서 얼굴 이미지를 비표적 스크래핑해 얼굴 인식 데이터베이스를 생성하거나 확장하는 경우, 개인의 특성·행동과 관련된 데이터로 개별 점수를 매기는 사회적 점수 매기기 등이 있다. 금지되는 것까지는 아니지만 인간의 안전이나 기본권에 고위험을 가져올 수 있는 AI시스템에 대해서도 EU AI법은 상세히 규정하고 있다. 의료, 교육, 선거, 핵심 인프라 등에 활용되는 AI 기술은 고위험 등급으로 분류돼 시장에 출시되기 전 인간이 AI 사용을 반드시 감독해야 하고 위험관리시스템을 갖춰야 한다. 고위험 AI시스템의 요건을 충족하는지 확인되면 위험평가와 관리 의무가 부가된다. 이러한 고위험 AI 시스템에는 의료 기기, 장난감, 기계류 등 EU 제품 안전 규정에 따라 규제되는 제품 또는 해당 제품의 안전 구성 요소인 AI 시스템, 중요 인프라, 금지되지 않는 생체 인식, 생체 인식 분류 시스템 또는 감정 인식 시스템인 AI 시스템, 고용, 근로자 관리 및 자영업에 대한 접근에 사용되는 AI 시스템, 개인의 신용도를 평가해 신용 점수를 설정하는 AI 시스템 및 생명 및 건강 보험의 경우 개인과 관련된 위험 평가 및 가격 책정에 사용되는 AI 시스템 등이 포함된다. EU AI법의 제반 규정들은 인간 중심적 AI를 개발 및 활용해야 한다는 입법 취지를 명확하게 반영하고 있다. 금지된 AI 서비스와 고위험 AI 시스템에 대한 규제를 보면 AI기술 발전에 따라 초래될 수 있는 인간의 자유와 기본적 권리를 침해하는 데이터 활용을 원천적으로 차단하고자 하는 의지가 느껴진다. 이에 대해서는 EU AI법이 과도한 선제적 규제로 AI기술과 시장이 미처 성숙할 시간을 주지 않고 규제해 AI기술의 발전에 제약이 될 것이며, 위반 시 전세계 매출액의 최대 3퍼센트(금지된 AI를 출시할 경우 전세계 매출액의 7퍼센트)에 해당하는 과징금의 부과에 대해서도 너무 큰 부담을 지우는 것이라는 의견도 존재한다. 새로운 기술의 개발 및 활용에 있어 규제를 공백으로 두기 보다는 어느 정도의 규제는 필요할 것이다. 아직 AI에 대한 구체적인 법령이 발효되지 않았지만 오랜 기간 이에 고민을 해온 우리나라는 포괄적 AI규제의 사실상 첫 스타트를 끊은 EU AI법의 내용뿐만 아니라 해당 법 집행에 따른 결과 등을 면밀히 분석함으로써 국민 기본권을 보호할 뿐만 아니라 국제적인 산업경쟁력을 갖출 수 있도록 하기 위한 AI 법제를 구축할 수 있기를 기대해 본다.

2024.08.06 08:18이강혜

[기고] 알고리즘과 AI의 차이점…규제가 중요한 이유

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 알고리즘과 인공지능(AI)은 현대 기술의 중심에 자리잡고 있다. 이 둘은 종종 혼용되거나 유사한 개념으로 이해되기도 하지만 그 본질과 작동 방식, 응용 분야는 다소 다르다. 알고리즘은 특정 작업을 수행하기 위해 설계된 명확한 단계적 절차나 규칙의 집합이다. 이들은 입력 데이터를 받아 처리하고 결과를 도출하는 과정에서 일련의 지침을 따른다. 예를 들어 정렬 알고리즘은 숫자나 문자의 리스트를 특정 순서로 정렬하는데 사용된다. 알고리즘은 수학적 논리와 명확한 지침을 바탕으로 작동하며 예측 가능하고 재현 가능한 결과를 제공한다. 반면 AI는 기계가 인간의 지능적 행동을 모방할 수 있도록 하는 기술의 집합이다. AI는 머신 러닝, 딥 러닝 등 다양한 기술을 포함하며 이러한 기술들은 데이터를 통해 학습하고 패턴을 인식하며 예측을 수행할 수 있다. AI 시스템은 스스로 데이터를 분석하고 경험을 통해 성능을 향상시키며 복잡한 문제를 해결할 수 있다. 이는 알고리즘과 달리 더 큰 유연성과 자율성을 제공하지만, 그 결과는 항상 예측 가능하거나 명확하지 않을 수 있다. 알고리즘과 AI는 많은 공통점을 가지지만 규제의 필요성이 있어서 중요한 차이점이 존재한다. 알고리즘은 명확한 규칙에 따라 작동하므로 이에 대한 규제가 상대적으로 간단하다. 즉 알고리즘의 코드와 로직을 분석함으로써 그 작동 방식을 이해하고 문제가 발생할 경우 이를 수정할 수 있을 것이다. 하지만 AI는 그 복잡성과 자율성 때문에 규제가 더 어렵다. AI 시스템은 수많은 데이터를 기반으로 학습하고 그 작동 원리는 불투명한 경우가 많다. 이로 인해 AI의 결정에 어떤 편향이나 오류가 발생할 수 있는지 이해하고 검증하기는 매우 어려울 것이다. 이에 따라 AI에 대한 규제는 신중하게 접근해야 한다. AI의 정의가 아직 명확하지 않고 그 응용 분야도 빠르게 변화하고 있기 때문에 성급한 규제는 기술 발전을 저해하거나 의도치 않은 결과를 초래할 수 있다. 예컨대 지나치게 엄격한 규제는 AI 연구 및 개발의 속도를 늦출 수 있다. 이는 글로벌 경쟁력에 부정적인 영향을 미칠 수 있다. 반면 규제가 너무 느슨하면 AI의 오남용이나 윤리적 문제를 방지할 수 없을 것이다. AI 규제의 복잡성은 그 기술적 특성뿐만 아니라 사회적, 윤리적 측면에서도 나타난다. AI는 개인 정보 보호, 데이터 보안, 윤리적 결정 등 다양한 문제를 포함하고 있으며 이는 단순한 기술적 규제로 해결할 수 없는 경우가 많다. 자율 주행 차량 내 AI의 경우 도로 안전과 관련된 복잡한 윤리적 결정을 내릴 수 있어야 한다. 이러한 상황에서 AI의 행동을 규제하는 것은 기술적 문제뿐만 아니라 사회적 합의와 윤리적 기준을 필요로 한다. 이에 AI 규제는 단계적이고 포괄적인 접근이 필요하다. 먼저 AI 시스템의 투명성을 높이는 것이 중요하다. 이는 AI가 어떤 방식으로 작동하는지, 어떤 데이터에 기반해 학습했는지를 명확히 밝히는 것을 의미한다. AI의 결과에 대한 책임도 명확히 해야 한다. 이는 AI 시스템의 오작동이나 잘못된 결정에 대해 누가 책임을 질 것인지를 규명하는 과정이다. 마지막으로 AI의 사회적, 윤리적 영향을 평가하고 이에 대한 기준을 마련해야 한다. 이는 AI가 사회에 미치는 긍정적, 부정적 영향을 균형 있게 고려하는 것을 의미한다. 알고리즘은 이미 규제되고 있으며 이는 그 명확한 정의와 예측 가능한 특성 덕분이다. 반면 AI는 그 정의와 응용이 아직 명확하지 않고, 복잡성과 자율성으로 인해 규제가 더 어려운 상황이다. 이에 따라 AI 규제는 신중하게 접근해야 한다. 또 기술적, 사회적, 윤리적 측면을 모두 고려하는 포괄적인 접근도 필요하다. 이는 AI가 사회에 긍정적인 영향을 미치면서도 그 위험을 최소화할 수 있는 길을 마련할 것이다.

2024.07.19 17:20법무법인 태평양 정상훈

[기고] AI 생태계 속 규제 패러다임의 변화…'AI 거버넌스'

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. 미국은 지난 2022년 10월 국가 안보 우려를 이유로 특정 성능 이상의 인공지능 및 슈퍼컴퓨터용 반도체 등의 대중 수출을 금지했다. 이후 지난해 10월에는 기존보다 사양이 낮은 인공지능(AI) 반도체 칩의 수출을 금지시켰다. 최근에는 엔비디아와 AMD의 중동 국가에 대한 최신 AI 칩의 대규모 판매 라이선스 발급을 늦추고 있다는 소식도 전해지고 있다. 올해 7월에는 프랑스 규제 당국이 AI 칩 선두 주자인 엔비디아를 반독점법 위반으로 제재할 예정이라는 보도가 나왔다. 이는 브루노 르메르 프랑스 재무장관이 "엔비디아의 지배력이 국가 간 '불평등 증가'를 야기하고 공정한 경쟁을 옥죄고 있다"는 발언을 한 이후 8개월만이다. 프랑스 외에도 미국과 유럽연합(EU), 중국, 영국 등도 엔비디아의 반독점 위반 여부에 대해 검토 중이라고 한다. '생성형 AI 경쟁이 국가 대항전처럼 흘러간다'는 이야기가 실로 와닿는 국제정세가 아닐 수 없다. 일본 총무성이 지난해 11월 네이버 클라우드에 저장된 라인야후 이용자의 개인정보 유출 사태와 관련해 라인야후에 네이버의 자본 관계 재검토를 요구한 것도 이러한 맥락에서 이해할 수 있다. 그러나 더이상 '데이터 보호주의' 또는 '우리나라 기업 강탈'이라고 분노만 할 것이 아니라 AI 국가 대항전에서 밀려나지 않기 위해 우리가 갖추어야 할 경쟁력이 무엇인지 반면교사로 삼아야 할 시점이다. 디지털화는 빅데이터 시대를 열었다. 데이터가 폭발적으로 증가하고 데이터의 원천도 내부에서 외부로 확대됐다. 또 다양한 원천으로부터 데이터를 수집해 통합, 분석해 업무에 주고받는 데이터의 활용 능력을 내재화하는 것은 근본 경쟁력이 됐다. 이는 국제적인 전략 경쟁에서 핵심 기술로 떠오르는 AI의 개발과 성과로 직결된다. 데이터의 속성상 잘 주고받는 것도 중요하지만, 잘 지키는 것도 주요한 화두가 되다 보니 개인정보와 같은 데이터 보호 규제는 점점 강화되고 있다. 이에 따라 잘 지키는 데이터 컴플라이언스를 준수하면서도 외부와도 데이터를 활발히 주고받을 수 있으려면 데이터 거버넌스를 정립하는 것이 필수가 됐다. 또 데이터는 AI 거버넌스의 핵심일 수 밖에 없다. 거버넌스의 의미에 관해 구체적으로 합의된 정의는 없으나, 'AI 거버넌스'는 AI와 관련된 목표를 달성하기 위해 조직을 지도, 통제하고 책임을 묻는 시스템을 의미한다. 동시에 AI의 개발, 활용으로 발생하는 위험들을 다루기 위해 필요한 일정한 제도적 접근방식을 말하는 것으로 이해하면 크게 틀리지 않을 것이다. 생성형 AI의 능력이 빠르게 향상되고 있고 AI의 활용 영역이 확장됨에 따라 우리가 예상하지 못하거나 미처 들여다보지 못하는 영역에서 발생할 문제점이나 위험성에 대해 걱정하는 목소리는 최근 높아지고 있다. 이러한 문제를 다루기 위해서는 일정한 제도적 접근방식 필요하고 AI 거버넌스를 구축해야 한다는 점에 대해선 어느 정도 합의가 이루어진 것 같다. 이에 따라 AI 거버넌스의 모범이 되기 위한 법을 만들기 위한 노력도 많아졌다. 올해 5월 21일에는 AI에 관한 세계 최초의 포괄적인 법인 EU 인공지능법(the Artificial Intelligence Act)이 EU 이사회에 의해 최종 승인돼 공포만 남겨두고 있다. 미국에서는 규제보다 진흥에 힘을 실은 인공지능 관련 법안이 연간 200개씩이나 발의되는 상황이라고 한다. AI 거버넌스와 관련해 얼마나 정교하게 제도적 접근을 할 것인지가 현안이라면 그 규제의 수준이 중요할 것이고, 핵심은 결국 리스크 관리로 가게 될 것이다. 리스크 관리 체계를 잘 만들어서 그 역량을 강화하는 게 주요국이 지향하는 바인 것 같다. 우리나라 역시 AI 관련 법안 발의가 증가하는 추세다. 기술 경쟁력뿐 아니라 제도 경쟁력의 동반성장이 중요한 만큼 우리나라도 AI 거버넌스를 구축함으로써 글로벌 AI 거버넌스의 대화에서 주도권을 빼앗겨서는 안 될 것이다. 이처럼 각국 및 유관 기관들은 AI의 리스크를 관리하기 위한 방법론들을 만들어내고 있고 상호 정합성을 가지는 방안을 모색하고 있다. 이들은 AI 산업 생태계의 구성원들에게 전 세계적으로 구축되는 AI 거버넌스 속에서 스스로 규율할 수 있는 내부통제 시스템을 갖추도록 요구할 것이다. 전 세계를 무대로 활동하는 우리 기업들은 AI 시스템을 설계하고 개발하고 이용하고 테스트하고 사용하는 조직 내에서 리스크 관리 문화를 만들어야 한다. 이를 구현하는 AI 거버넌스를 구축하는데도 주저하지 말아야 할 것이다.

2024.07.05 16:48법무법인 태평양 강정희

[기고] 신뢰할 수 있는 인공지능과 설명요구권

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 2주 마다 다뤄보고자 한다. 사람의 개입없이 기계에 의해 무언가 결과를 얻어내는 것은 우리의 일상 생활에서 오랫동안 있어온 일이다. 작게는 사거리의 신호등이 점멸할 때 중요하신 분이 지나가는 아주 특별한 경우를 제외하고는 사람이 신호등 안에 숨어서 기기를 작동시키지 않음을 우리는 다 알고 있다. 백화점 멤버십의 등급이 결정될 때도 백화점에서 사용한 카드 사용 금액과 달리 백화점이 고려하는 요소들에 따라서 나의 등급이 정해진다. 해외에서 휴가를 보내기 위해 공항에서 출국 심사를 받을 때도 미리 신원을 등록해 뒀다면 출입국 사무소 직원이 여권을 보는 것이 아니라 컴퓨터가 나의 정맥과 여권만으로 출국 가능 여부를 심사한다. 빅데이터에 대한 분석 기술이 고도화되고 머신러닝 기법과 같은 인공지능(AI) 기술도 이와 함께 발전하면서 인공지능 기술을 도입한 결과물의 이용에 대해선 좀 더 복잡한 문제가 발생하고 있다. 인공지능 기술에서 발생하는 문제점으로 환각(hallucination), 공정성(fairness)이나 편향성(bias) 등이 지적되고 이를 해결하기 위한 많은 연구가 이루어지고 있다. 또 다른 인공지능 기술의 특징 중의 하나는 그 알고리즘을 설명하거나 이해하는 것이 점점 더 어렵게 됐다는 점이다. 인공지능의 알고리즘을 블랙박스(black box)에 비유하는 이유도 인공지능이 내놓은 결론이 왜 그렇게 나왔는지를 설명하기 어려운 경우가 많기 때문이다. 전통적인 인공지능 학습모델로 불리워지는 선형회귀(linear regression)나 의사결정 나무(decision tree)의 경우에도 간단한 모델의 경우에는 결과와 이유의 인과관계를 설명할 수 있다. 하지만 모델이 커지고 복잡해지면서 어떤 요소들이 어떻게 내놓은 답에 영향을 미치게 되는지를 정확하게 설명하기는 어려운 경우가 많다. 무언가 판단이 있었을 때 그 이유를 설명할 수 있어야 한다는 논리는 인공지능 시대에 새롭게 대두된 것은 아니다. 예컨대 우리나라 약관 규제법에서도 사업자가 미리 정해둔 약관을 계약에 포함시키기 위해서는 이 중 중요한 내용에 대해 설명할 것을 요구하고 있다. 또 설명을 충분히 하지 않았으면 그 내용을 계약으로 주장할 수 없다고 정하고 있다. 인공지능과 유사한 복잡한 알고리즘이 오래 전부터 작동해 온 신용평가모델의 경우 미국에선 이미 1970년대부터 대출신청자의 요구에 따라 평가모델에 대해서 설명하도록 규제해 오기도 했다. 개인정보보호법은 인공지능이 개인정보를 처리해 개인에 영향을 미치는 의사결정을 할 경우의 위험성을 인지하고 2023년 법 개정을 통해 자동화된 의사결정에 대한 거부 내지 설명을 요구할 수 있는 권리를 도입했다. 이 규정은 이미 올해 3월 15일부터 시행되고 있다. 이는 개인정보의 처리를 포함해 인공지능에 따라 개인정보를 처리를 포함한 결정이 이루어지고, 이러한 결정으로 인해 나의 권리와 의무에 중대한 영향을 받을 경우에 그 결정을 거부하거나 또는 이와 같은 결정이 내려진 것과 관련한 설명을 요구할 수 있도록 한 것이다. 예컨대 자동화된 시스템에 의해 육아수당의 지급이 취소된 경우 그 지급 취소 결정에 대해 거절하고 인적개입을 요구하거나 또는 왜 취소됐는지 설명을 요구할 수 있다. 공공기관이 국민에게 뭔가 불이익한 처리를 하는 경우에 대해선 자동화된 의사결정이 아니라고 하더라도 일반적으로도 설명을 요구할 수 있었다. 그러나 민간의 경우에는 그러한 설명을 할 의무가 없었기에 이 설명요구권은 새롭게 도입된 제도라 할 수 있다. 공공 부문에서도 이 법의 도입을 통해 개인정보 처리의 관점에서 설명을 해야 하는 사항들이 구체화되었다는 점에서 큰 의미가 있다. 이제는 뭔가 신청자 또는 이용자에게 불이익한 결론이 내려졌다고 하더라도 단지 시스템에 의해서 자동으로 결정됐다거나, 사람의 편향된 판단없이 기계가 공정하게 결정했다는 설명만으로는 부족하게 됐다. 좀 더 구체적으로 법에서 정하고 있는 사항을 설명해야 하는 의무가 사업자에게 발생하게 된 것이다. 우리나라 국민이라면 모두 다 공감하고 있고 공통의 가치를 삼고 있는 민주주의, 국민의 자유와 기본권의 보호, 약자에 대한 배려와 실질적 평등과 같은 핵심의 가치를 인공지능의 설계에서부터 반영해야 한다. 이는 전 세계적으로 강조돼 온 '신뢰할 수 있는 인공지능(trustworthy AI)'의 근간이 된다. 자동화된 의사결정에 대한 설명요구권 역시 인공지능 기술과 산업의 발전을 도모하면서도 동시에 정보주체의 권리에 대해 충분한 보호를 하기 위한 사회적 안전장치다. 새롭게 도입된 제도인 만큼 섬세하면서도 유연한 법 적용을 기대해 본다.

2024.06.07 17:28법무법인 태평양 강태욱

제네시스, LG유플러스 컨택센터에 클라우드 솔루션 공급

제네시스가 LG유플러스의 인공지능(AI) 컨택센터에 자사 클라우드 솔루션을 공급한다. 제네시스는 LG유플러스와 클라우드 기반 컨택센터 '제네시스 클라우드 CX' 공급 계약을 체결했다고 19일 밝혔다. 이를 통해 LG유플러스는 컨택센터 운영 효율을 극대화하고, 고객들의 다양한 니즈에 맞춰 진화하는 서비스 기반을 갖출 방침이다. 제네시스 클라우드 CX는 LG유플러스의 고객 및 컨택센터 운영에 대한 가시성을 올리고 약 6천 명에 달하는 상담사의 생산성 향상과 센터 생산성을 끌어올릴 전망이다. LG유플러스는 고객 응대를 위한 서비스 채널을 확대하고, 데이터 기반 고객 경험 제공 프로세스를 확립한다는 방침이다. 이를 통해 개인화되고 최적화된 고객 경험 제공에 집중할 예정이다. 또 AI 도입을 통해 보다 빠르고 효과적으로 서비스를 제공함과 동시에 컨택센터 운영 효율화를 향상할 계획이다. 홍주영 LG유플러스 CSS개발 랩장은 "제네시스 클라우드 CX를 통해 기존 온프레미스 환경에서 분산돼 관리하던 시스템들을 통합 관리할 수 있게 됐다"며 "LG유플러스는 앞으로도 고객의 변화에 발맞춰 맞춤화된 경험을 제공받을 수 있도록 할 계획이다"고 밝혔다. 백덕인 제네시스 코리아 영업총괄 전무는 "제네시스 클라우드 CX는 초대형 컨택센터부터 소형 센터까지 기업의 규모와 산업을 막론하고 국내에서 레퍼런스를 빠르게 넓혀나가고 있다"며 "LG유플러스가 컨택센터에서 경쟁력을 차별화하고 개인화된 고객 서비스 경험을 제공할 수 있도록 최선을 다해 지원할 것"이라고 말했다.

2024.02.19 10:30김미정

"LLM 만난 AI컨택센터, 상담원 같은 서비스 원년 될 것"

“그동안 인공지능 컨택센터(AICC)는 데이터가 파편화되고 대규모언어모델(LLM)을 지원하지 않아 상담원 같은 자연스러움을 느낄 수 없었다. 이제는 고객에 최적화된 서비스를 제공하는 AICC가 선보일 시기가 됐다.” 13일 서울시 구로구 GS네오텍 사옥에서 만난 서정인 IT사업본부장은 위와 같이 말하며 올해 AI사업 분야 사업 강화전략을 소개하며 올해가 개인화된 AI컨택센터가 본격적으로 선보이는 첫해가 될 것이라고 전망했다. 지난 수년간 AI 비즈니스의 주력 사업으로 AI챗봇을 활용한 AICC가 주목받았다. 하지만 제한적인 사용 방식과 낮은 정확성으로 인해 상담원의 업무를 지원하지 못하며, 기대에 미치는 성과를 달성하지 못했다. GS네오텍은 이러한 문제를 해결하기 위해 사일로화된 데이터를 통합하고, 특화된 대규모 언어모델(LLM)을 준비하고 있다. AICC 솔루션 개발도 실시한다. 클라우드 서비스 기업의 AICC 관련 솔루션과의 연동을 통한 음성봇 솔루션 개발이나, 챗봇, 음성봇 등 필수 및 부가 기능에 대한 분석/설계 자료를 산출해 낼 수 있는 신규솔루션을 개발 중이다. 서 본부장은 “기존에는 고객 데이터가 분산돼 있어 AI가 고객에 대해 충분한 학습이 이뤄지지 않아 고객맞춤형 서비스가 이뤄지지 않았다”며 “이제는 한 곳에 고객의 데이터를 저장한 후 이를 LLM으로 학습하는 만큼 올해부터 본격적으로 고객 맞춤형 서비스가 이뤄질 것”이라고 말했다. 이어서 “점차 직접 정보를 검색하고 해결책을 찾을 수 있는 셀프서비스에 대한 선호도가 높아지는 반면, 상담원의 업무부하는 높아지고 있다”며 “LLM을 활용할 경우 고객 질문에 신속하게 응답하고 상담사의 피로도를 상당부분 낮출 것”이라고 설명했다. GS네오텍은 금융, 이커머스를 비롯해 제조, 에너지 등 다양한 산업분야를 대상으로 진출을 본격화한다는 방침이다. 온프레미스 등 구축형 기반 프로젝트도 클라우드 기반 제품도 개발 중이다. 대외서비스인 AICC 외에도 자동화 도구 등 AI를 활용한 생산성 향상 서비스로 얼어붙은 기업들의 투자심리도 녹일 계획이다. 서정인 본부장은 “불경기임에도 많은 기업들이 AI 분야에 비용을 지출하고 있다”며 그 이유는 AI를 먼 미래를 위한 투자가 아닌 바로 지금의 생산성을 높이기 위한 수단으로 인식하고 있기 때문”이라고 설명했다. 이어서 “이미 많은 고객사에서 AICC를 도입해 단위시간당 처리할 수 있는 통화량을 늘리는 동시에 상담원의 스트레스를 줄이고, 개발자는 AI나 노코드 도구를 사용해 업무 효율을 높이는 추세”라고 밝혔다. GS네오텍은 올해부터 AI도입이 본격화될 것으로 예상되는 만큼 자체 기술력을 높여 나갈 계획이다. 이를 위해 자체 교육 및 인력확보를 비롯해 파트너사와의 협력도 확대한다는 방침이다. 서정인 본부장은 “이미 많은 고객사에서 AI 도입에 앞서 교육을 문의하거나 태스크포스를 시범 운영하는 중”이라며 “특히 기업의 성장을 위한 AI도입이 AICC라는 형태로 중첩돼 발현되는 것 같다”고 말했다.

2024.02.13 13:42남혁우

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

"요금 올리거나, 무료 풀거나"…OTT, 전략 분화

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

SKT 유심교체 누적 193만...교체 예약 대기 686만

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현