[기고] 국방 AI, 보안 도구는 있는데 체계가 없다
액티브엑스(ActiveX)는 한국 사이버보안 업계에 잔혹사로 남아 있다. 결제 버튼 하나를 누르려고 플러그인 10개를 깔고 재부팅까지 했는데, 돌아와 보니 세션은 끊기고 장바구니만 텅 비어 있던 기억이 누구나 한 번쯤 있을 것이다. 문제는 그 이후였다. 해킹 위협이 터질 때마다 패치를 덧댔고 패치 위에 또 패치를 올렸다. 결과는 누더기 보안이었다. 처음부터 근본 틀을 만들었다면 겪지 않았을 일이다. 불편함이 곧 보안이라는 잘못된 인식까지 심어준 대표적 사례로 기록된다. 지금 인공지능(AI) 보안에서 그 기시감이 다시 느껴진다. AI 자재명세서(AI-BOM), 레드티밍, 취약점 조율 공개 제도(CVD)까지 새로운 개념과 대책이 매일 쏟아지지만, 정작 현장에선 무엇부터 시작해야 할지, 어떤 대책이 우리 조직에 맞는지 감을 잡지 못한다. 대책이 늘어날수록 오히려 더 불안해지는 역설이 반복되고 있다. 국방도 예외가 아니다. AI 기반 피복 자동청구 시스템을 예로 들어보자. 과거엔 담당자가 경험에 의존해 중간 사이즈 몇 벌, 대 사이즈 몇 벌 식으로 일괄 청구했다. 이제는 AI가 입대 장병들의 신체 데이터와 실시간 재고 현황을 분석해 필요 수량을 자동으로 산출한다. 효율은 분명히 올라간다. 이 AI가 잘못된 데이터를 학습해 편향된 예측을 반복한다면 누가 이를 감지하고 통제할 수 있는가. 민간에서 AI가 틀리면 재고가 남지만 군에서 AI가 틀리면 장병이 맞지 않는 피복을 입고 전장에 나간다. 도입은 했지만 관리할 체계가 없다는 것, 바로 이것이 현장 불안의 뿌리다. 최근 주목받는 세 가지 보안 대책을 다시 살펴보자. AI-BOM은 AI 시스템을 구성하는 데이터, 모델, 알고리즘의 출처와 이력을 추적하는 명세서다. 공급망 투명성을 확보한다는 점에서 의미 있지만 납품된 AI가 실제 운용되는 순간부터는 손을 놓는다. 군 무기체계는 수십 년을 운용한다. 개발 단계에서 검증했다고 운용 내내 안전하다고 볼 수 없다. 레드티밍은 해커의 시각으로 시스템을 공격해 취약점을 찾아내는 실전적 검증 수단이지만 특정 시점의 스냅샷에 불과하다. 작전 환경이 바뀌고 적의 공격 방식이 진화하면 처음부터 다시 시작해야 한다. 한 번 통과했다고 영구 인증이 되는 구조로는 빠르게 진화하는 AI 위협을 따라갈 수 없다. CVD는 민간에서 효과적이지만 국방엔 그대로 적용할 수 없다. 취약점을 외부에 공개하는 순간 작전보안이 뚫리고, 화이트해커를 가장한 적의 합법적 침투 경로가 된다. 국방형 CVD는 내부 화이트팀에 한정한 폐쇄형 프로세스로 재설계돼야 한다. 세 가지 대책은 각각 정보시스템 수명주기의 특정 지점을 담당하고 있다. AI-BOM은 개발 단계, 레드티밍은 시험평가 단계, 국방형 CVD는 운용 단계다. 하지만 이들을 하나로 꿰는 체계가 없다면 각자의 임무는 수행하되 전체는 연동되지 않는다. 이 모든 대책을 하나로 구동하는 것이 미국 국립표준기술연구소(NIST)가 개발한 AI 위험관리 프레임워크(AI RMF)다. 업계식으로 표현하면 AI 보안의 운영 체제(OS)다. AI-BOM, 레드티밍, 국방형 CVD는 그 위에서 실행되는 개별 기능들이다. RMF라는 토대 위에서 각각의 대책이 제자리를 찾고, 서로 연결되며, 전 주기적으로 작동한다. RMF의 강점은 확장성이다. 지금의 보안 대책만 담는 틀이 아니라 앞으로 등장할 신기술도 같은 방식으로 편입된다. 딥페이크, AI 워터마킹, 모델 붕괴 탐지처럼 생소한 개념도 RMF의 식별·측정·관리 기능 안에서 새로운 위험 항목으로 자리를 잡는다. 어떤 위협이 등장해도 RMF라는 토대는 그것을 흡수할 준비가 되어 있다. RMF는 위험도에 따라 통제항목을 늘리거나 줄일 수 있다. 고위험 시스템은 공급망·모델·운용 전 단계를 정밀 검증하고, 저위험 시스템은 핵심 항목 몇 개만 빠르게 점검하는 차등 전략이다. 무겁다는 오해와 달리, 조직의 위험 수준에 맞게 경량화해서 운용할 수 있다는 점도 RMF의 실용적 강점이다. 우리는 이미 답을 알고 있다. 액티브엑스가 남긴 교훈은 단순하다. 위협이 터질 때마다 패치를 덧대는 땜질식 접근이 아니라 처음부터 근본 틀이 있어야 한다는 것이다. 이번엔 다행히 그 틀이 이미 존재한다. 국방은 K-RMF 위에 AI RMF를 얹어 사이버보안과 AI 신뢰성을 하나의 거버넌스 체계로 관리하면 되고, 민간은 이제 그 틀을 새로 만들 차례다. 불편함이 곧 보안이라는 잘못된 인식을 AI 시대에 되풀이하지 않으려면 지금 당장 근본 틀부터 세워야 한다. 액티브엑스의 잔혹사를 기억하는 사람이라면 누구나 알고 있다.