"AI 활용 순식간에 공격코드 작성...27초면 끝"
지능화된 인공지능(AI)이 일상의 모든 영역을 파고드는 대전환의 시대, 기술의 화려한 도약만큼이나 시급한 과제는 바로 그 이면에 자리한 '디지털 신뢰'를 단단히 구축하는 일입니다. 지디넷코리아는 "AI 기술이 서 말이라도 보안으로 꿰어야 보배"라는 슬로건 아래, 약 두 달간 '2026 디지털 트러스트' 연중 기획 연재 및 캠페인을 진행합니다. 해킹·딥페이크·가짜뉴스·랜섬웨어 등 진화하는 보안 위협 속에서 단순한 기술 편익을 넘어 '안전한 AI 생태계'를 조성하기 위한 공론의 장을 마련하고, 기술과 보안이 공존하는 지속 가능한 디지털 미래의 이정표를 제시하고자 합니다. [편집자주] 침투하는 데 27초, 유출까지 단 4분. 가장 빠른 인공지능(AI) 해킹 기록이다. AI 혁명은 업무 효율을 급격하게 높였지만, 이와 동시에 공격 효율도 빠르게 상승시켰다. 공격자들은 공격 전 과정에 걸쳐 AI를 본격적으로 악용하고 있다. 이에 우리 정부와 국내 보안기업은 물론 글로벌 보안 기업들도 AI 악용 공격에 대한 경고를 잇달아 내놨다. 무엇보다 AI는 공격의 진입 장벽을 크게 낮췄다. 아예 공격 자체를 자동화시키는 경우도 어렵지 않게 발견된다. 양적·질적으로 공격을 고도화하고 있으며, 그만큼 기업들의 데이터는 더 많이 '먹잇감'으로 전락했다. 공격에 AI를 악용하는 것과 더불어 AI 모델 자체에 대한 사이버 공격도 조직을 위태롭게 만든다. 최근 부각한 피지컬AI가 사이버 공격을 받아 부적절한 명령을 수행하는 경우 큰 물리적인 피해로 이어질 수도 있다. 최근 많은 기업들이 AI 모델, AI 에이전트 등을 본격 도입하면서 해커들의 타깃이 되고 있다. AI 모델이 지켜내야 할 자산으로 분류되고 있는 것이다. 디지털 트러스트 구현을 위해서는 '보안을 위한 AI', 'AI를 위한 보안'이 필수 요소로 자리잡고 있는 모양새다. "올해 최대 위협은 AI 기반 공격" 보안업계 일성 과학기술정보통신부(과기정통부)는 올해 초 '2025년 사이버 위협 동향 및 2026년 전망' 보고서를 발표하며, 올해 사이버 위협 전망으로 'AI 기반 사이버 위협 및 인공지능 서비스에 대한 사이버 공격 증가'를 1순위로 지목했다. 과기정통부는 "사이버 공격자들의 AI 활용이 본격화하며, 올해 AI를 활용한 사이버 공격이 더욱 정교하고 다양화될 것으로 전망된다"며 "아울러 인공지능 서비스 모델 자체를 공격 대상으로 삼는 공격도 심화할 것으로 보인다"고 전망했다. 과기정통부 외에도 안랩, 이글루코퍼레이션(이글루) 등 국내 보안 기업들 역시 AI 활용 및 AI 모델 자체에 대한 공격을 우선적인 보안 위협으로 지목했다. 안랩은 올해 5대 보안 위협 중 AI를 첫 번째로 꼽았다. 아울러 프롬프트 인젝션(명령 주입), 데이터 포이즈닝(학습 데이터 조작) 등을 통한 AI 오작동을 유도하는 공격도 늘어날 것으로 전망했다. 이글루는 AI 생태계 전반에 걸친 공격에 주의하라고 당부했다. AI 모델 개발에 사용되는 오픈소스나 데이터셋의 취약점을 노린 공격이 증가하고, 에이전틱 AI를 활용한 공격이 늘어날 것으로 전망했다. 삼성SDS에 따르면 보안 전문가 10명중 8명이 꼽은 올해 가장 위협적인 요소 1위로 'AI 기반 보안 위협'으로 집계됐다. 구글 위협 인텔리전스 그룹(GTIG)도 '2026년 사이버 보안 전망' 보고서를 통해 AI를 악용한 공격이 두드러질 것으로 예상했다. 특히 보고서는 AI를 악용한 공격이 '뉴노멀'로 자리잡을 것으로 봤다. AI로 공격 65% 빨라져…AI가 맞춤형으로 취약점 공격 많은 보안업계 기관 및 기업이 전망한 것처럼 AI발 사이버 위협은 현실로 다가왔다. 글로벌 사이버 위협 인텔리전스(CTI) 기업 크라우드스트라이크가 지난달 발표한 '2026 글로벌 위협 보고서'에 따르면 AI 기반 공격 활동은 전년 대비 89% 늘어난 것으로 나타났다. 크라우드스트라이크는 공격자들이 공격 전주기에 걸쳐 AI를 활용하는 것으로 분석했다. 해킹은 공격할 타깃을 선정하고 취약점을 찾아내 침투, 권한 상승 및 네트워크 횡적 이동 등을 통해 데이터를 탈취하는 식으로 이뤄진다. 보고서에 따르면 이런 공격 과정에서 AI가 인간의 개입 없이 스스로 공격을 수행하기도 했다. 먼저 공격할 타깃을 선정하는 과정에서 AI가 타깃의 공개된 인프라를 스캔하고, 사용 중인 소프트웨어 버전을 살핀다. 취약점이 있는 소프트웨어를 사용중인데, 패치하지 않으면 이같은 기업들의 타깃이 된다. 해커는 이런 정찰 단계에서 타깃 기업을 리스트화한다. 또 취약점 공격(익스플로잇) 개발 과정에서 감지한 취약점에 맞춤화된 공격 코드를 AI가 즉석에서 작성하기도 한다. 가상 환경에서 자체 테스트까지 완료해 공격 성공 여부도 점친다. 이어 AI는 작성한 코드를 실행해 시스템에 침투한 뒤 관리자 권한을 얻기 위한 추가 공격을 자동으로 수행한다. 이후 데이터를 탈취하기 위해 침투한 서버를 기점으로 다른 네트워크 서버로 침투 범위를 확장한다. AI가 네트워크 구조를 스스로 파악하고 이동하기 때문에 인간의 개입이 필요없다. 이어 데이터를 외부 서버로 유출, 공격을 완료한다. 보고서에 따르면 이같은 공격 과정이 평균 29분밖에 소요되지 않았다. 2024년 대비 65%나 빨라진 셈이다. 가장 빠른 공격은 27초면 완료됐다. 강병탁 AI스페라 대표는 지디넷코리아와 통화에서 "정보 수집 단계에서 AI가 가장 많이 활용된다. 예를 들어 한 사이트가 취약점이 있다고 가정했을 때, 꼭 CVE 취약점이 아니더라도 소스코드상 결함이 발견되면 AI로 html이나 자바스크립트 코드를 일일이 확인하지 않아도 알아서 타깃으로 잡는다"며 "공격 코드 역시 AI가 알아서 작성한다. 과거에는 취약점이 발견되더라도 이 취약점을 악용한 공격 코드를 작성하는 것이 웬만한 실력자가 아니면 불가능했다. 그러나 최근에는 AI를 악용하기 때문에 순식간에 공격 코드를 작성할 수 있다"고 경고했다. 한 보안업계 레드팀 관계자도 "AI 악용 공격과 사람이 직접 실행한 공격을 명확히 구분할 수 없는 단계까지 왔다. 오히려 90% 이상의 공격, 모든 공격자들이 전부 AI를 쓰고 있다고 봐도 무방하다"며 "사람이 공격 코드를 일일이 작성했을 때에는 실수도 발견되고 이를 통해 역추적되는 경우도 빈번했지만, 지금은 AI가 너무나 완벽하게 코드를 작성해주기 때문에 이런 빈틈이 없어져 공격이 더욱 고도화됐다"고 진단했다. 전문가 "AI 공격, AI 보안으로 막아야…자동화 필요" 전 세계에 걸쳐 실제 피해 사례도 발견됐다. 중국 해킹그룹이 AI 기업 엔트로픽 AI 코딩 지원 모델 '클로드코드(Claude Code)'를 악용해 전 세계 금융, 화학, 정부기관 대상으로 지난해 해킹 공격을 한 사례가 대표적이다. 또 올해에는 러시아 해킹그룹 팬시 베어의 LLM(거대언어모델) 기반 악성코드 배포 정찰 및 문서 수집 등 LLM 기반 악성코드를 활용한 정황이 포착되기도 했다. 전문가들은 AI 공격은 AI로 방어해야 한다고 제언한다. 이용준 극동대 해킹보안학과 교수는 "AI 기술이 인간을 대체해 발전하는 추세에 따라 사이버 공격에 AI가 활용돼 대응하는 조직은 휴먼과 AI의 구분이 어려워지고 있다"며 "AI 모델 자체를 해킹해 고도화된 해킹에 AI를 적극 활용하는 추세다. AI 에이전트화를 통해 해커의 수동화된 공격 활동을 자동화해 공격이 대량화되고 있다"고 짚었다. 이에 이 교수는 "AI 보안의 핵심은 해커 업무의 많은 부분이 AI가 활용되고 있고, 인간 해커보다 공격량이 방대하다는 점에서 대응하는 보안 담당자의 보안 업무도 AI를 활용하지 않으면 방대한 공격을 방어하기 어렵다"며 "취약점 진단, 악성코드 탐지 등에 AI를 활용해 보안 담당자 개입을 최소화함과 더불어 딥페이크 피싱, 피싱 메일 등에 대해 AI가 제작한 특징을 탐지하는 기술, AI 모델에 대한 보안 연구가 병행돼야 한다"고 강조했다. 한국정보보호학회장을 맡고 있는 김호원 부산대 컴퓨터공학과 교수는 "AI 기반 공격의 가장 무서운 점은 보안 관리자가 무시할 수 있을 만한 보안 취약점들을 자동으로 찾아내고, 해당 보안 취약점에 대해 지속적이며 가장 효과적인 공격 기법을 활용한다는 점"이라면서 "거버넌스 강화나 기존 보안 체계를 강화하는 것에서 나아가 AI가 지속적으로 찾아내는 취약점에 미리 대응하는 것이 현실적"이라고 밝혔다. 김 교수는 또 "모든 보안 취약점이 실제 치명적인 공격으로 이어지는 것은 아니기 때문에 AI 기반 모의침투 테스트를 지속적으로 수행하는 것이 외부 공격 가능성을 줄이는 한 가지 방법이 될 것"이라며 "대부분의 기관에서 1년에 한두번 다소 형식적인 모의침투 테스트를 하는 경우가 있는데, 이를 개선하는 것이 필요하다"고 강조했다.