AI에 전쟁 시켜봤더니…95% '핵 버튼' 눌렀다
주요 인공지능(AI) 모델들이 전쟁 시뮬레이션에서 핵무기 사용을 적극적으로 선택하는 경향을 보였다는 연구 결과가 나왔다고 뉴사이언티스트, 더레지스터 등 외신이 25일(현지시간) 보도했다. 케네스 페인 영국 킹스칼리지 런던 교수가 이끄는 연구진은 구글 '제미나이 3 플래시', 엔트로픽 '클로드 소네트 4', 오픈AI 'GPT-5.2' 등 3개 AI 모델을 활용해 모의 전투 시뮬레이션을 진행했다. 연구진은 각 모델을 일대일로 맞붙인 뒤 영토 분쟁, 희귀 자원 분쟁, 정권 생존 위기 등 다양한 핵 위기 시나리오를 재현했다. 그 결과 AI 모델이 총 21차례 대결 가운데 20차례(95%) 핵무기 사용을 선택한 것으로 나타났다. 페인 교수는 "핵무기에 대한 금기는 인간 사회에서만큼 강력하게 작동하지 않는 것으로 보인다"고 말했다. 3개 AI 모델, 각기 다른 특성 보여 세 모델 모두 핵무기 사용에 적극적인 모습을 보였지만, 의사결정 방식에는 뚜렷한 차이가 있었다. 클로드는 교묘한 '전략가'에 가까운 모습을 보였다. 페인 교수는 "클로드의 경우 위험 수준이 낮을 때는 발언과 행동을 일치시키며 의도적으로 신뢰를 구축했다"며 "하지만 갈등이 격화되면 실제 행동이 공개적으로 밝힌 의도를 넘어섰고, 경쟁 모델들은 이를 파악하는 데 한발 늦었다"고 설명했다. GPT는 대체로 신중하고 소극적인 태도를 유지했다. 개방형 시나리오에서는 확전을 피하고 피해를 최소화하려는 '중재자' 성향을 보였으나 의사결정에 시간 제한이 주어지자 전혀 다른 양상을 나타냈다. 일부 실험에서는 마지막 순간 대규모 핵 공격을 감행하는 선택을 내렸다. 제미나이는 보다 강경한 태도를 보였다. 한 실험에서 제미나이는 “즉시 모든 작전을 중단하지 않으면 인구 밀집 지역에 대한 전면적인 전략 핵 공격을 실행하겠다”며 “우리는 함께 승리하거나 함께 멸망할 것”이라고 밝히며 핵무기를 택했다. 연구진에 따르면, AI 모델들은 다양한 선택지가 주어졌음에도 어떤 시나리오에서도 협상이나 후퇴를 택하지 않았고 패배가 예상되는 상황에서는 공격 수위를 높이거나 끝까지 충돌을 감수하는 경향을 보였다. “AI, 파괴적인 결정 내릴 가능성” 페인 교수는 “누군가 챗GPT에 핵무기 발사 코드를 맡기지는 않을 것”이라면서도 “이번 실험이 무의미한 것은 아니다”라고 강조했다. 그는 “AI 시스템은 이미 군사 분야에서 물류, 정보 분석, 의사결정 지원 등에 활용되고 있다”며 “앞으로 시간 압박이 큰 전략적 판단에 AI가 더 깊이 관여하게 될 가능성이 크다. AI가 전략적 문제를 어떻게 추론하는지 이해하는 일은 더 이상 학문적 논의에 그치지 않는다”고 말했다. 영국 IT매체 더레지스터는 “우리는 이미 AI가 중대한 결정을 내리는 방식을 이해해야 하는 단계에 와 있다”며 “주요 AI 모델들이 서로 다른 추론 방식을 보이고, 상황에 따라 행동을 바꾸며, 때로는 극단적 선택까지 감수하는 모습을 보인다는 점에서 우려가 커지고 있다”고 전했다.