국제 AI 보안 표준 발표..구글-오픈AI-알리바바 동참
미국과 중국 기업 등이 참여해 생성형 인공지능(AI) 보안 표준을 내놨다. 17일 스위스 제네바에서 열린 제27차 유엔과학기술회의에서 세계디지털기술아카데미(WDTA)는 '생성형 AI 애플리케이션 보안 테스트 표준'과 '대규모 언어 모델 보안 테스트 방법' 등 두 가지 국제 표준을 발표했다. 이 두 가지 표준은 초거대 모델 및 생성형 AI 애플리케이션 방면의 보안 테스트 표준으로서, 글로벌 AI 보안 평가 및 테스트의 새로운 기준이 될 것이라고 소개됐다. 두 표준은 오픈AI, 구글, 메타, 마이크로소프트, 엔비디아, 아마존, 알리바바그룹의 앤트그룹, 아이플라이텍, 바이두, 텐센트, 오포, 그리고 버클리대 등 수십 개 기업 및 기관의 전문가가 공동으로 만들었다. 이중 대규모 언어 모델 보안 테슽 방법은, 앤트그룹이 주도해 제정했다. 표준은 생성형 AI 애플리케이션(특히 대규모 언어 모델을 사용해 구축한 응용 프로그램)의 보안을 테스트하고 검증하기 위한 프레임워크를 제공한다. 또 ▲기본 모델 선택 ▲임베디드 및 백터 데이터베이스 ▲RAG 또는 검색 증강 생성 ▲AI 애플리케이션 런타임 보안 등 방면에서 AI 애플리케이션 아키텍처의 각 단계에 대한 테스트 및 검증 범위를 정의한다. 대규모 언어 모델 보안 테스트 방법의 경우 대규모 모델 자체의 보안 평가를 위한 포괄적이고 실용적인 계획을 제공하며 대규모 언어 모델의 보안 위험 분류, 분류 방법과 테스트 방법 등을 제안한다. WDTA에 따르면 이 방법은 대규모 언어 모델의 복잡성을 해결하면서 적대적 공격을 견딜 수 있는 능력을 포괄적으로 테스트하고 개발자와 조직이 잠재적 취약점을 식별해 막을 수 있게 한다. 궁극적으로 대규모 언어 모델을 사용한 AI 시스템의 성능을 향상시킬 수 있다..