AI 무기 개발, 국제법 상 금지 대상이 될 수 있을까?
어떤 무기가 등장하면 그 무기가 허용될 수 있는지부터 질문이 시작된다.
AI가 무기의 중심에 서게 된 지금 이 기술이 어떤 방식으로 규제될 수 있는지에 대한 논의가 거세지고 있다.
전통적인 무기는 물리적 피해를 기준으로 평가됐다면 AI 기반 무기는 판단 과정과 의사결정 주체가 사람인지 아닌지가 쟁점이 된다.
폭발력이나 사거리 같은 수치보다 명령을 내리는 존재가 누구인지가 더 중요한 기준이 되고 있다.
특히 판단의 속도와 정확성은 향상되었지만 그 판단이 윤리적 책임과 연결되는지는 여전히 의문으로 남는다.
지금 이 시점에서 법은 단지 기술을 따라가는 존재가 아니라 그 기술이 넘지 말아야 할 선을 제시할 수 있어야 한다는 요구를 받고 있다.
문제는 그 선이 아직 명확히 합의되지 않았고 누가 그 선을 먼저 긋느냐에 따라 국제사회의 반응도 달라질 수 있다는 점이다.
기술보다 빠른 법은 없지만 늦은 법이 모든 상황을 정당화할 수는 없다.
결정권이 인간에게 없다면 국제법은 어떻게 해석할 수 있을까
AI 무기는 인간이 직접 목표를 지정하지 않아도 자동으로 판단하고 실행하는 구조를 가질 수 있다.
일부 시스템은 타격의 시점뿐만 아니라 표적 선정부터 상황 판단까지 전 과정을 기계가 처리하도록 설계된다.
이 경우 공격이 이뤄졌을 때 그 책임이 누구에게 있는지를 밝히는 데 혼란이 생긴다.
전투 상황에서 오작동이 발생하거나 민간인이 피해를 입었을 때 명령을 내린 사람이 없다고 주장되는 경우에는 국제법 해석이 멈춰버릴 수도 있다.
무기 시스템이 자율적으로 결정했다는 설명이 반복되면 피해의 책임을 두고 법적 판단이 모호해질 수밖에 없다.
지금까지의 무기 규범은 ‘사용자’와 ‘피해’ 간의 연결을 전제로 해석되어 왔지만 AI 무기는 그 연결 고리를 약하게 만들 수 있다는 점에서 문제가 제기된다.
결국 인간의 판단이 배제된 상황에서 국제법의 기본 전제 역시 흔들릴 수 있다는 우려가 나온다.
이는 단순히 새로운 무기 등장이라는 기술적 문제가 아니라 법이 전제로 삼아온 ‘의사결정 주체’라는 개념 자체를 다시 정의하게 만들 수도 있다.
국제인도법은 원칙을 가지고 있지만 그 원칙만으로 충분하지 않다
무기를 평가하는 가장 기본적인 국제법 기준은 국제인도법이다.
비례성, 차별성, 불필요한 고통 금지라는 세 가지 원칙이 무기 사용의 적법성과 정당성을 판단하는 핵심 기준으로 작용해 왔다.
하지만 AI 무기는 이 기준을 판단하는 주체가 사람이 아닐 수 있다는 데서 문제가 생긴다.
피해를 판단하고, 민간인과 군인을 구분하며 상황의 맥락을 고려하는 일이 기계의 알고리즘만으로 충분히 이뤄질 수 있느냐는 질문이 남는다.
국제인도법은 사람의 판단 능력을 전제로 구성돼 있기 때문에 그 판단이 없는 상황에 적용될 수 있는지에 대해서는 해석이 분분하다.
법이 가진 원칙이 여전히 유효하더라도 그 원칙을 AI가 따르지 않는다면 법은 단지 선언으로 머물 위험이 있다.
예측 가능성이 없는 판단을 법이 따라갈 수 있는가
기술이 아무리 정교하더라도 그 판단의 기준이 불투명하다면 책임을 묻기 어렵다.
AI 무기의 가장 큰 문제는 예측 가능성이 낮다는 점에서 발생한다.
전통적인 무기는 사용자가 결과를 인지한 채 결정을 내리지만 AI는 데이터를 기반으로 결과를 도출하되 그 과정이 ‘설명 불가능’ 한 경우도 많다.
예를 들어 동일한 입력에도 결과가 달라질 수 있고 그 결과에 영향을 미친 판단의 요소가 명확하게 드러나지 않기도 한다.
이런 상황에서는 피해가 발생해도 그 판단이 기술적 오류인지 설계 실패인지 구분하기 어렵다.
그리고 그 구분이 되지 않는다면 누구에게 법적 책임을 물을지도 모호해진다.
국제법은 ‘예측 가능성’과 ‘통제 가능성’을 전제로 구성돼 왔지만 AI 무기는 그 전제를 흔드는 요소로 작용할 수 있다.
이러한 불확실성은 단지 기술의 복잡성 문제가 아니라 법이 작동할 수 있는 기반이 약화되고 있다는 신호이기도 하다.
금지 여부를 결정하는 건 기술의 성능이 아니라 인간의 합의다
AI 무기를 둘러싼 기술은 빠르게 진화하고 있다.
정밀 타격 능력, 실시간 데이터 분석, 자율 비행 등에서 인간보다 더 빠르고 정교한 기능을 갖추고 있다.
그러나 금지 여부는 기술이 어디까지 가능한가 보다 그 기술을 국제사회가 받아들일 수 있느냐에 따라 결정된다.
지금까지 화학무기나 생물무기, 지뢰 등의 금지는 그 무기의 효과가 잔혹하다는 기술적 이유도 있었지만 결국은 정치적 합의와 국제적 인식 변화가 핵심이었다.
AI 무기 역시 마찬가지다.
기술이 어디까지 발전했느냐와 별개로 인간의 통제를 완전히 배제하는 무기를 국제법상 허용할 것인지에 대한 정치적 결단과 공동 대응의 틀이 전제돼야 한다.
이 논의는 기술이 아닌 규범의 문제이기도 하며 윤리와 안보, 책임과 인간성 사이에서 균형점을 찾아야 하는 복잡한 과제를 안고 있다.
법이 늦지 않기 위해선 합의보다 먼저 기준이 나와야 한다
AI 무기 개발은 이미 현실이다.
다양한 국가와 민간 기업이 해당 기술을 군사적 목적으로 활용하거나 연구를 확장하고 있다.
이런 흐름이 반복되면 법은 기술 뒤에서 결과만 해석하는 구조로 고착될 수 있다.
그렇기 때문에 지금 필요한 건 완전한 합의보다 먼저 등장해야 할 기준들이다.
무기를 설계할 때부터 인간의 통제가 반드시 포함돼야 한다는 규범 그리고 자율 무기의 판단 범위를 제한하는 구조적 설계 등이 논의될 수 있다.
국제사회가 빠르게 결론을 내리긴 어렵지만 그렇다고 논의 없이 방치된다면 되돌리기 힘든 선례가 만들어질 수 있다.
실질적인 기준이 마련되지 않는다면 AI 무기는 규제 사각지대 안에서 독자적인 발전을 이어갈 가능성도 배제할 수 없다.
법은 늦을 수 있지만 기준은 늦지 않아야 한다는 말이 단순한 문장이 아니라 국제사회의 행동 원칙으로 자리 잡을 필요가 있다.