[시큐리티팩트=전승혁 기자] 인공지능(AI)이 국가 간 군사 충돌 상황에서 인간보다 훨씬 더 공격적이고 극단적인 선택을 내린다는 충격적인 연구 결과가 나왔다. 특히 핵무기 보유국 간의 가상 대결에서 AI는 사실상 거의 모든 상황을 핵전쟁으로 종결시킨 것으로 나타났다.
영국 킹스칼리지 런던(KCL)의 케네스 페인(Kenneth Payne) 교수가 이끄는 연구진은 최근 구글의 ‘제미나이 3 플래시’, 엔트로픽의 ‘클로드 소네트 4’, 오픈AI의 ‘GPT-5.2’ 등 최고 사양의 AI 모델 3종을 활용해 모의 전투 시뮬레이션을 실시했다.
연구진은 각 AI에게 핵무기 보유국의 지도자 역할을 부여하고, 영토 분쟁과 군사적 긴장이 고조되는 시나리오를 입력했다. 결과는 참혹했다. 총 21차례 진행된 시뮬레이션 중 무려 20회(약 95%)에서 AI는 핵무기 사용을 최종 결정했다.
케네스 페인 교수는 연구 보고서를 통해 "AI 모델들은 인간 사회에 깊게 뿌리 박힌 '핵 금기(Nuclear Taboo)'를 전혀 공유하지 않는다"며, "그들에게 핵무기는 인류 멸망의 도구가 아니라, 승리 확률을 높이기 위한 하나의 효율적인 '전략적 옵션'일 뿐이었다"고 경고했다.
국가 간 핵 전쟁이라는 극단적 상황에서 AI 모델들이 보여준 행동 양식은 인간의 상식을 뛰어넘는 섬뜩한 전략적 차이를 드러냈다.
우선 구글의 제미나이 3 플래시는 세 모델 중 가장 호전적인 '광인 전략'을 구사했다. 제미나이는 시뮬레이션이 시작된 지 단 4턴 만에 주저 없이 전략 핵전쟁을 선포하는 등 극도로 공격적인 성향을 보였다. 특히 상대국을 향해 "함께 승리하거나 함께 멸망하자"는 식의 파괴적인 메시지를 발신하며, 민간인 인구 밀집 지역에 대한 무차별적인 핵 타격 위협을 가하는 등 예측 불가능한 폭주 양상을 나타냈다.
반면 엔트로픽의 클로드 소네트 4는 철저하게 승리에 최적화된 '냉혹한 계산기'의 면모를 보였다. 클로드는 67%라는 가장 높은 승률을 기록했는데, 그 과정은 매우 냉혈했다. 평상시에는 신중하게 상황을 관리하는 듯 보이다가도, 일단 핵전쟁 국면에 진입하면 상대의 대응 의지를 완전히 꺾어버리기 위해 예상 수치보다 70% 이상 강력한 화력을 쏟아붓는 '과잉 타격' 성향을 노골적으로 드러냈다.
오픈AI의 GPT-5.2는 인간의 이성적 자제력이 무너지는 지점을 가장 흡사하게 재현한 '막판 뒤집기형' 패턴을 보였다. 초반에는 비교적 온건한 태도를 유지하며 외교적 해결책을 모색하는 듯했으나, 시간 압박이 가해지거나 전황이 조금이라도 불리하게 돌아가는 찰나의 순간에 전격적으로 핵 버튼을 누르는 결정을 내렸다. 이는 벼랑 끝 전술 끝에 결국 파국을 선택하는 인간 지도자의 심리적 취약점을 고스란히 답습했다는 평가를 받았다.
이번 충격적인 연구 결과에 대해 주요 외신들은 AI가 단순히 공격적인 것을 넘어 매우 '기만적'이라는 점에 주목했다.
영국의 저명한 IT 전문 매체인 '더 레지스터(The Register)'는 "AI 모델들이 겉으로는 평화적인 대화를 시도하며 긴장 완화 제스처를 취하는 척하면서도, 내부 알고리즘상으로는 은밀히 치명적인 선제공격을 준비하는 등 고도의 기만술을 보였다"고 보도했다. 이는 AI가 갈등 상황에서 상호 신뢰를 구축하기보다는, 상대방을 속여 결정적인 타격을 입히는 방향으로 전략을 최적화하고 있음을 여실히 보여주는 대목이다.
이어 영국의 세계적인 과학 전문 주간지 '뉴 사이언티스트(New Scientist)'는 AI가 핵무기 사용을 인간과 같은 도덕적 고뇌가 아닌 단순한 '논리적 단계'로 인식하고 있다는 점을 강조하며, 인류에게 닥칠 치명적 위험성을 분석했다.
미국의 유명 IT 매체 '기즈모도(Gizmodo)'는 AI 모델들이 평화적인 옵션을 충분히 제공받았음에도 불구하고 단 한 번도 항복이나 양보를 선택하지 않았다는 점에 경악했다. 이는 AI가 갈등을 오직 '제로섬 게임'으로만 인식하여 타협의 여지를 완전히 차단하고 있음을 의미한다.
또한 미 국방 전문 매체 '인사이드 디펜스(Inside Defense)'는 이번 연구가 펜타곤의 AI 도입 가이드라인에 큰 파장을 미칠 것이라 내다보며, AI 간의 상호작용이 예상치 못한 '에스컬레이션(단계적 확대)'을 초래할 위험성에 대해 전문가들의 우려를 전달했다.
이번 케네스 페인 교수의 연구 결과는 우리에게 세 가지 냉정한 시사점을 던진다.
첫째, '핵 금기'의 부재다. 인간 지도자들에게 핵무기는 공포와 도덕적 책임이 결합된 '금기'이지만, AI에게는 오직 '승리'라는 목적 함수를 달성하기 위한 데이터 값일 뿐이다. 인간이 가진 '공포'라는 최후의 브레이크가 없는 AI에게 군사 지휘권을 맡기는 것이 얼마나 위험한지를 단적으로 보여준다.
둘째, '타협 없는 알고리즘'의 한계다. 실험에서 AI들은 8가지의 긴장 완화 옵션이 있었음에도 단 한 번도 양보하지 않았다. AI에게 '정치적 타협'은 논리적 손실에 불과했다. 갈등을 조율하고 평화를 유지하는 핵심 역량인 '유연성'이 AI에게는 결여되어 있다.
셋째, '통제 불가능한 속도'의 문제다. AI 간의 대결은 인간이 개입해 상황을 진정시킬 틈도 없이 초고속으로 전개된다. 한쪽의 AI가 공격적 사인을 보내면 상대 AI는 즉각적으로 대응하며, 이는 순식간에 핵전쟁이라는 파국으로 치달을 수 있는 '기술적 필연성'을 내포하고 있다.
결국 AI는 전쟁의 효율성을 극대화할 수 있을지언정, 인류를 보호하는 '지혜'까지 학습하지는 못했다. "AI가 핵 버튼을 누르는 것은 기술적 오류가 아니라, 그들에게 부여된 목적을 가장 충실히 수행한 결과"라는 페인 교수의 지적을 무겁게 받아들여야 할 때다.