'챗GPT' 개발사 오픈AI, 개인정보 침해 등 안전대책 발표
챗GPT 개발사인 오픈AI가 인공지능(AI)의 급속한 발전으로 인한 잠재적 위험 대한 안전 대책을 발표했다. 실리콘 앵글 등 외신에 따르면 오픈AI는 여러 방안에서 AI모델의 안전을 구축하기 위해 노력하고 있다고 공식 블로그를 통해 밝혔다. 오픈AI는 새로운 AI 모델을 출시하기 전 엄격한 테스트를 수행하고, 외부 전문가를 포함한 피드백을 통해 모델을 개선하는 등 광범위한 안전 및 모니터링 시스템을 거친다고 밝혔다. 최근 출시한 GPT-4의 경우 학습을 마친 후 출시에 앞서 6개월 테스트하며 시스템을 안정화하는 과정을 거쳤다. 오픈AI 관계자는 "강력한 AI 시스템은 엄격한 안전성 평가를 받아야 한다고 믿는다"며 "이런 관행이 적용되기 위해선 규제가 필요한 만큼 우리는 최선의 형태로 정부와 적극적으로 협력하고 있다"고 밝혔다. 오픈AI는 AI 모델 배포 후 예상치 못한 남용이나 오용을 방지하기 위해 지속적인 AI 업데이트 및 보안 기술 업데이트를 지원한다. 이를 통해 사용자의 오용 및 남용을 모니터링하고, 이에 대한 효과적인 대응 방안을 지속적으로 업데이트 방식으로 차단할 수 있다는 설명이다. 미성년자 보호를 위해 AI 도구를 사용하려면 18세 이상 또는 부모의 승인이 있는 13세 이상만 사용할 수 있으며 이를 인증하는 옵션도 검토하고 있다. 오픈AI 관계자는 "우리는 AI모델이 어린이에게 해를 끼치는 콘텐츠를 생성할 가능성을 최소화하기 위해 많은 노력을 기울였습다"며 "사용자가 아동 성적 학대 자료를 이미지 도구에 업로드하려 하면 이를 차단하고 국립 실종 및 착취 아동 센터에 신고할 것"이라고 강조했다. 또한 학생의 교육을 위한 가상 교사와 교사를 돕기 위한 조교 역할을 수행하는 AI 조수를 지원하는 비영리 칸 아카데미와 같은 개발자와 협력해 학생들을 위한 맞춤형 안전 서비스도 제공한다. 대규모 AI 등장으로 많은 우려를 사고 있는 개인정보 유출을 차단하기 위한 대안 마련에도 역량을 집중하고 있다. 이를 위해 학습데이터에서 게인정보를 사전에 제거해 응답 과정에서 개인 정보를 포함할 가능성을 차단한다. 이와 함께 사용자 피드백을 통해 AI의 정확성을 개선했다. GPT-4의 경우 GPT-3.5보다 사실적인 콘텐츠를 생산할 가능성 40%이상 더 높다. 오픈AI 미라 무라티 최고 기술 책임자(CTO)는 “AI 안전 문제를 해결하기 위한 실용적인 접근 방식은 효과적인 완화 및 조정 기술을 연구하고 실제 남용에 대해 테스트하는 데 더 많은 시간과 자원을 투자하는 것이라고 믿는다”며 “최고의 안전 작업은 사용자의 지시를 더 잘 따르고 가장 유능한 AI 모델과 함께 작업함으로써 이루어지는 것이라고 생각한다”고 말했다.