"신뢰할 수 있는 챗GPT 중요…제도적 뒷받침 必"
오픈AI가 만든 대화형 인공지능(AI) 챗봇 '챗GPT' 열풍을 놓고 전문가들은 산업 전반에 걸쳐 생산성 제고 등 긍정적인 결과를 기대하면서도, AI 언어모델이 초래할 수 있는 법적 윤리적 문제를 해결할 수 있는 제도적 뒷받침이 필요하다고 입을 모았다. 14일 한국인터넷기업협회 주최로 열린 제84회 굿인터넷클럽에선 최근 정보기술(IT) 업계 화두인 챗GPT를 비롯해, AI 기술의 현재와 미래를 논의하는 자리가 마련됐다. 먼저, 챗GPT가 가져온 변화와 범용성에 대한 의견이 오갔다. 최영준 연세대학교 행정학과 교수는 “근래 챗GPT와 제도적 상보성 개념을 갖고 대화를 나눴는데, 최고의 학회에서 훌륭한 학자들과 이야기하는 기분이 들었다”면서 “생성형 AI가 로봇이나 여타 기술과 결합한다면, 또 다른 기회가 생길 것으로 예상된다”고 운을 뗐다. 마케팅 문구 제작과 AI 자기소개서, 외국어 번역 등 현재 챗GPT가 다방면에서 쓰이고 있으며, 앞으로 활용 범위를 넓혀갈 것으로 전망됐다. 윤영진 네이버클라우드 글로벌 AI 비즈니스 리더는 “향후 원하는 정보를 검색할 때, 애매한 성격의 질문을 챗GPT가 정답형으로 빠르게 제시할 것”이라며 “시와 소설, 노래 가사를 쓸 때, 보조수단으로도 활용될 것”이라고 내다봤다. 또 윤 리더는 “업무 생산성에 있어, 혁신을 가져다줄 것”이라면서 “이메일이나 기업 문서 작성 등 사무직종은 물론, 코딩 자동화를 통해 개발자 능률을 높이는 데도 챗GPT가 큰 역할을 할 것”이라고 봤다. 윤 리더는 “네이버는 이를 기회로 보고 향후 이미지, 동영상 학습을 통한 멀티모달 기능 지원 등을 내부적으로 고민하고 있다”고도 했다. 다만 챗GPT가 여러 영역으로 뻗어나가려면, AI 언어모델 실용성을 논하기 전 기술 발전을 위한 기준점이 수반돼야 한다는 견해가 나왔다. 김은수 서울대 인공지능정책 이니셔티브 박사는 “챗GPT 근간은 결국 인간 활동에 의한 데이터 집합체”라면서 “AI 기술이 급속도로 발달하면서 이에 상응하는 윤리원칙이 나오고 있지만, 대체로 아직 무엇이 문제인지 정의하기 어려운 상황”이라고 설명했다. 김은수 박사는 “과연 챗GPT를 믿을 수 있을지, 신뢰할 수 있는 AI를 만들지 여부가 중요한데, 여기엔 기술 역량은 물론 AI가 초래할 문제들을 판단할 법과 원칙, 규제 역시 필요하다”면서도 “섣부른 규제는 곧 AI 기술 발전을 저해할 수 있다는 딜레마가 있다”고 말했다. 챗GPT 같은 AI 언어모델이 생성되면서, 동시에 부작용을 최소화하려면 자율규제가 도입돼야 한다고 김 박사는 목소리를 높였다. 김 박사는 “개발 단계에서 개발자들 의지를 낮추는 게 아니라, 실제 문제가 생길 때 기업들을 자율적인 형태로 제재할 수 있게끔 점진적인 접근 방법이 요구된다”고 했다.