지난달 28일 미군은 이란 남부 미나브에 있는 이란 혁명수비대 기지를 미사일로 공습했습니다. 발사하고 나서야 알았습니다. 그곳은 초등학교였습니다. 수업 중이던 학생과 교사 등 최소 175명이 사망했습니다. 미군은 오폭 원인을 조사했습니다. 과거 그 학교 건물은 인접한 혁명수비대 기지의 일부였습니다. 오래된 정보가 갱신되지 않아서 벌어진
일이었습니다.
이 사건이 국제적 논란이 된 이유는 단순히 참혹한 피해 때문만은 아닙니다. 외신에 따르면 미군은 이번 이란 공습에 팔란티어의 메이븐(Maven)과 앤스로픽의 AI 모델 클로드를 결합한 AI 기반 표적 분석 도구를 활용했습니다. 이들 시스템이 방대한 감시, 센서, 정보 데이터를 결합해 인간 지휘관의 결정을 뒷받침했다고
합니다.
AI는 전쟁의 킬 체인, 즉 표적 감지, 분류, 우선순위 설정, 타격의 연쇄 안으로 들어와 있습니다. 미국과 이스라엘이 사용하는 군사 분석 플랫폼은 방대한 데이터를 결합해 공격 후보를 자동으로 생성합니다. 이 시스템은 수천 개의 잠재적 목표를 몇 초 만에 분석해 군사적 우선순위를 매깁니다. 인간 분석팀이 며칠 혹은 몇 주에 걸쳐 수행하던 작업이 몇 초 안에 이뤄집니다.
미나브의 초등학교에서 벌어진 일은 현대 전쟁의 불편한 사실을 드러냅니다. 전쟁은 점점 정확해지고 있습니다. 동시에 점점 자동화되고 있습니다. 그리고 자동화된 전쟁에서는 누가 결정했는지조차 분명하지 않습니다. 기계가 제안하고 인간이 승인하는 전쟁이기 때문입니다.
가자 지구는 이 변화의 선행 사례였습니다. ‘+972 매거진’과 로컬콜의 조사에 따르면 이스라엘군은 라벤더와 하브소라 같은 AI 시스템을 활용해 대규모 표적 목록을
생성했습니다. 라벤더는 수만 명 규모의 잠재 표적을 추렸고, 하브소라는 특정 건물과 구조물을 공격 후보로 제시했습니다.
핵심은 AI가 사람을 ‘확인’했다기보다, 방대한 패턴을 바탕으로 사람과 건물을 ‘추정’했다는 데 있습니다. 최소한의 전쟁 윤리마저 사라진 겁니다. 인간 정보 분석관이 특정 인물을 오랫동안 감시하고 검증해 올린 이름과, 알고리즘이 확률 점수로 밀어 올린 이름은 법적으로나 도덕적으로 전혀 같지 않습니다. 그러나 전장의 속도는 둘을 점점 같은 것으로 취급하도록 압박합니다.
여기에 AI 전쟁의 첫 번째 역설이 있습니다. AI는 흔히 정밀성의 기술로 팔립니다. 하지만 그 정밀성이 언제나 민간인 보호를 뜻하지는 않습니다. 《파이낸셜타임스》는 최근 이란 작전에서 미국이 며칠 만에 2000개가 넘는 표적을 타격한 속도를 이전 대테러전과 비교하며, AI가 킬 체인의 시간을 급격히 단축했다고
전했습니다.
전쟁이 빨라질수록 인간의 숙고는 병목이 됩니다. 그러면 군 조직은 숙고를 줄이고 승인만 남기려 합니다. ‘Human in the loop’라는 표현은 종종 실질이 아니라 형식이 됩니다. 버튼을 누르는 사람이 있다고 해서, 그 판단이 인간의 것이라고 말할 수는 없습니다. 이미 선택지는 기계가 정렬해 놓았기 때문입니다.
이런 구조는 국제인도법과 정면으로 충돌합니다. 전쟁법은 결과만 보지 않습니다. 과정도 봅니다. 군 지휘관은 표적이 정당한 군사 목표인지 확인하기 위해 합리적으로 가능한 모든 조치를 다해야 하며, 민간인 피해를 줄이기 위한 예방 조치도 병행해야 합니다.
그런데 알고리즘이 낸 확률 점수, 불투명한 모델의 출력, 갱신되지 않은 데이터베이스를 연결한 체계에서 그 과정을 사후적으로 재구성할 수 있을까요. 누가, 무엇을 근거로, 어떤 반론을 배제하고, 어떤 불확실성을 감수했는지 설명할 수 없다면, 그 체계는 전쟁법의 문법과 애초부터 잘 맞지 않습니다.
세계 최초의 포괄적 AI 규제법이라는 유럽 연합(EU)의 AI 법이 군사, 국방, 국가 안보 목적의 AI를 적용 대상에서 제외한 것도 아이러니를 드러냅니다. 세계에서 가장 강력한 AI 규제 체계가, 가장 치명적인 AI 사용처 앞에서는 한발 물러선 겁니다.
미국 국방부 역시 AI 전쟁의 치명적 단점을 모르지 않습니다. 국방부는 2022년과 2024년에 ‘책임 있는 AI 전략 및 구현 경로’를
발표했습니다. 이 전략 문서에서 국방부는 신뢰성, 추적 가능성, 거버넌스, 인간 감독 같은 원칙을 반복해서 강조했습니다. 그러나 실제 전쟁은 문서와 다릅니다. 가자 지구와 미나브가 그랬습니다. 전략 문서는 ‘책임 있는 도입’을 말하지만, 실제 작전 환경은 적보다 먼저 행동해야 한다는 압박 속에서 돌아갑니다. 그 속도를 극대화하는 것이 AI입니다.
지금 전장에서 벌어지는 일은 단순한 기술 채택이 아니라 군사 산업 구조의 재편입니다. 20세기 방산의 상징이 록히드마틴과 레이시온이었다면, 21세기 중반의 상징은 팔란티어와 안두릴, 그리고 그들과 얽힌 거대 AI 기업들입니다. 이들은 탱크와 전투기 대신 판단의 인프라를 팝니다. 데이터 파이프라인, 모델, 분류 체계, 표적 추천 인터페이스, 전장 대시보드, 전력·클라우드·컴퓨팅까지 엮인 새로운 방산 복합체가 형성되고 있습니다.
로이터는 구글과 아마존의 프로젝트 님버스 계약이 12억 달러 규모라고 보도했고, 2024년 구글 직원 해고 사태는 상업용 클라우드와 군사 인프라의 경계가 얼마나 흐려졌는지를 보여
줬습니다. 이제 ‘기술 회사’ 혹은 ‘빅테크’라는 표현은 현실을 가리는 완곡어법에 가깝습니다. 킬 체인 안에 들어간 회사는 사실상 방산업체입니다.
이 새로운 방산업체들의 특징은 책임의 사슬을 잘게 쪼갠다는 데 있습니다. 전통적 무기 체계에서도 책임 분산은 존재했지만, 최소한 미사일 제조사와 작전 지휘관의 역할은 분명히 나뉘어 있었습니다.
AI 체계에서는 그 선이 흐려집니다. 데이터셋을 정리한 하청 업체, 모델을 설계한 엔지니어, 모델을 배포한 클라우드 사업자, 군용 플랫폼에 통합한 시스템 기업, 이를 구매하고 사용한 정부와 군, 최종 승인한 장교가 서로 다른 종류의 책임을 조금씩 나누어 가집니다.
그 결과 모두가 부분적으로만 책임이 있고, 따라서 누구도 충분히 책임지지 않는 구조가 만들어집니다. 법학에서 말하는 ‘많은 손의 문제(Problem of Many Hands)’가 전쟁에서 가장 치명적인 형태로 나타나는 셈입니다. 미나브에서, 가자에서, 그리고 앞으로의 전장에서 이 문제는 더 이상 철학적 난제 정도가 아닙니다. 그것은 누가 표적이 되고 누가 살아남는지를 결정하는 구조가
됩니다.
더 심각한 점은 이 체계가 실패했을 때조차 군사 조직이 그것을 실패로 인식하지 않을 수 있다는 사실입니다. 알고리즘은 문제를 감추는 데 능합니다. 표적이 틀렸다면 데이터가 오래됐다고 말하면 됩니다. 데이터는 맞았지만 결과가 틀렸다면 모델의 한계라고 말하면 됩니다. 모델이 아니라 사람이 승인했다면, 인간이 최종 책임자라고 말하면 됩니다. 반대로 사람이 실수했다면, 엄청난 정보량 때문에 AI 지원이 불가피했다고 말하면 됩니다. 이처럼 AI는 책임을 제거하지 않습니다. 대신 책임을 여러 단계로 흩어 놓습니다. 그 결과 누구도 완전히 책임지지 않는 구조가 만들어집니다.
기술관료주의의 본능은 언제나 같은 방향으로 흐릅니다. 통제 가능한 위험이라면, 일단 확장하자는 쪽입니다. 실리콘밸리는 기술은 중립적이고, 문제는 사용 방식이라고 주장합니다. 그러나 군사 AI에서는 이 주장에 한계가 있습니다. 표적 선정 시스템은 엑셀이나 서버처럼 범용 도구가 아닙니다. 그것은 애초에 누가 죽을 수 있는지, 무엇이 군사적 위협으로 해석될 수 있는지를 구조화하는 도구입니다.
다시 말해, 군사 AI는 총알보다 총구에 가깝습니다. 더 정확히 말하면, 무엇을 총구 앞으로 끌고 올지를 정하는 체계입니다. 그런 체계를 만든 기업을 여전히 ‘중립적 인프라 공급자’라고 부르는 것은, 현실을 지나치게 편리하게 묘사하는 일입니다.
그럼, 해법은 무엇일까요. AI 전면 금지는 듣기에는 시원하지만, 현실적으로는 쉽지 않습니다. 군사 강국들이 경쟁하는 한, AI는 계속 도입되겠죠. 그렇다면 남는 길은 규제의 초점을 결과가 아니라 구조와 과정에 맞추는 겁니다.
우선, 군사 표적 선정에 쓰이는 AI는 사후 감사가 가능한 형태여야 합니다. 단순한 점수 출력이 아니라, 어떤 데이터와 어떤 규칙이 어떤 권고를 만들었는지 법률가와 감사자가 재구성할 수 있어야 합니다. 책임은 현장 운용자에서 멈춰서는 안 됩니다. 불투명한 시스템을 알고도 설계, 통합, 판매한 기업까지, 공급망 전체로 확장되어야 합니다.
또한 수출 통제와 공공 조달 조건을 활용할 필요가 있습니다. 유럽의 AI법은 군사 AI를 적용 대상에서 제외했습니다. 그러나 규제 수단이 완전히 사라진 것은 아닙니다. 정부는 공공 조달 계약을 통해 군사 AI 시스템에 투명성과 감사 가능성을 요구할 수 있습니다. 또한 민간과 군사 양쪽에 쓰이는 듀얼유즈 AI 기술에 대해 수출 통제를 적용하는 것도 가능합니다. 직접 규제는 피했지만, 정책 지렛대는 여전히 남아 있습니다.
그러나 더 근본적으로는 정치의 문제입니다. 오늘의 AI 군비 경쟁은 기술의 자연스러운 진화라기보다 국가들이 의도적으로 선택한 질서입니다. 미국은 AI를 규제해야 할 대상으로만 보지 않고, 경쟁에서 앞서기 위해 더 빨리 확산해야 할 전력 승수로 봅니다. 중국 역시 지능화 전쟁 개념 아래 유사한 방향으로 움직여 왔습니다. 유럽은 윤리를 말하지만, 군사 영역만큼은 예외를 뒀습니다.
각국 정부는 전부 같은 계산을 합니다. 내가 멈추면 남이 앞설 것이라는 계산입니다. 바로 그 계산이 핵무기 시대의 군비 경쟁을 만들었고, 이제 AI 시대의 군비 경쟁을 만들고 있습니다. 차이는 핵무기가 도시를 순식간에 파괴하는 기술이었다면, 군사 AI는 책임을 서서히 파괴하는 기술이라는 점입니다.
그래서 미나브의 학교는 단지 하나의 끔찍한 사건이 아닙니다. 그것은 미래 전쟁의 예고편에 가깝습니다. 가자에서 시험된 시스템, 이란에서 가속된 시스템, 앞으로 다른 분쟁으로 수출될 시스템이 같은 질문을 던지고 있습니다. 더 빠른 전쟁이 정말 더 나은 전쟁인가. 더 정밀한 무기가 정말 더 도덕적인 전쟁을 보장하는가. 그리고 무엇보다, 설명할 수 없는 기계적 추론 위에 인간의 생사를 올려놓는 체계를 과연 법과 정치가 끝내 통제할 수 있는가.
지금까지의 징후는 낙관적이지 않습니다. AI 기업들은 점점 더 깊게 방산 생태계 안으로 들어가고 있고, 국가는 그들을 제약하기보다 활용하려 합니다. 이 흐름이 계속된다면 미래의 전쟁은 더 기계적이어서가 아니라, 더 관료적이고 더 익명적이어서 위험해질 것입니다. 사람을 죽이는 결정은 여전히 인간 사회가 만든 것입니다. 그러나 그 결정이 어떻게 내려졌는지 묻는 순간, 책임은 알고리즘과 조직 사이로 흩어집니다. 모두가 과정에 참여했지만, 누구도 자신이 결정했다고 말하지 않는 전쟁이 되는 것입니다.
이것이 지금의 AI 전쟁이 불길한 이유입니다. 전쟁의 속도는 비약적으로 빨라졌는데, 책임을 묻는 속도는 오히려 느려졌고 거의 사라졌기 때문입니다.