AI가 만든 허위 정보가 국제 분쟁을 일으켰다면 국제법 상 누가 책임져야 하는가?
최근 수년 사이 AI가 생성한 가짜뉴스가 정치, 경제, 외교 전선에서 예상치 못한 파장을 일으키고 있다.
문제는 이 콘텐츠가 단순한 오보 수준을 넘어 특정 국가 간의 긴장이나 외교적 오해를 유발하는 단계에 이르렀다는 점이다.
특히 생성형 AI가 자율적으로 작성한 허위 정보가 온라인상에 확산되었을 경우 그 책임이 누구에게 있는지에 대해 국제법은 명확한 기준을 제시하지 못하고 있다.
더 나아가 이러한 콘텐츠로 인해 실제 외교 마찰이나 국제 분쟁이 발생했다면 과연 해당 AI의 개발자, 플랫폼 제공자, 혹은 AI를 실행시킨 개인이나 국가 중 누가 책임을 져야 할까?
이 글에서는 생성형 AI가 생산한 허위정보의 국제법적 책임 구조를 해부하고 현행 법 체계가 안고 있는 공백과 그로 인한 위험성에 대해 진단해 본다.
AI가 만들어낸 ‘의도 없는 거짓말’
인간은 의도를 가지고 거짓을 만든다. 하지만 생성형 AI는 전혀 그렇지 않다.
GPT나 Claude, Gemini 같은 언어 모델은 학습된 수많은 데이터를 조합해 문장을 생성할 뿐 사실 여부나 정치적 맥락을 판단하지 못한다.
그렇다면 “AI가 만든 가짜뉴스”는 악의적인 조작으로 봐야 할까 아니면 기술적 오류일 뿐일까?
문제는 AI가 만든 정보가 현실에서 의도된 결과와 비슷한 결과를 낳을 수 있다는 점이다.
예컨대 AI가 “A국이 B국을 무력 공격할 계획이다”라는 사실무근의 내용을 생성해 유포했다면 그 정보를 기반으로 B국이 군사적 대응 태세를 취할 가능성도 있다.
여기서 핵심 쟁점은 분명해진다. AI는 의도가 없지만 결과는 현실에 영향을 준다.
허위정보로 인한 피해는 누가 책임지는가?
국제법은 ‘책임 주체’를 전제로 하기 때문에 의도와 행위가 인간 혹은 국가에 의해 발생했을 때 법적 책임을 물을 수 있다.
하지만 AI는 법률상 행위 주체가 아니다.
그렇다면 허위정보로 인해 외교적 갈등이 생겼을 때 AI 개발 기업 (예: OpenAI, Google 등), 서비스 제공 플랫폼 (SNS, 웹사이트 등), 콘텐츠 게시자 또는 유포자, AI를 사용한 국가 또는 공공기관 중 누가 책임을 져야 할까?
현재 국제법은 이 사안에 대해 직접적인 규정을 갖고 있지 않다.
그렇기 때문에 피해 국가가 ‘책임을 물을 수 있는 대상’을 명확히 특정하지 못해 대응에 혼선을 겪게 된다.
이 문제는 사이버 안보 영역과도 연결되며 사실상 법적 공백 상태에 가깝다.
“기존 국제법이 갖는 한계와 충돌”
현행 국제법 체계는 책임을 판단할 때 ‘의도를 가진 행위자’라는 전제를 가장 먼저 깔고 출발한다.
국가든 개인이든 혹은 정부 기관이든 무엇인가를 결정하고 실행했다는 전제가 있어야 책임이 성립한다.
하지만 생성형 AI는 이 전제를 정면으로 흔든다. AI는 누구처럼 ‘무엇을 하겠다’고 판단한 적이 없다.
그럼에도 그 결과물이 외교적 위기를 만들 수 있다면 기존 법적 틀은 어디까지 대응할 수 있을까?
일부 국제협약은 ‘국가가 직접 한 행위’가 아니라 자국 내에서 발생한 문제에 대한 통제 부족만으로도 책임을 묻는다.
하지만 AI는 개발자도 사용자도 예측하지 못한 출력을 생성한다.
그럴 경우 과연 어느 선까지가 통제 가능 범위일까?
이 질문에 대해 국제법은 아직 명확한 경계를 설정하지 못하고 있다.
게다가 정보 자체에 대한 규정도 나라마다 기준이 다르다.
어떤 국가는 사실 여부보다 표현의 자유를 우선시하고 다른 국가는 외교적 민감성을 이유로 강하게 규제한다.
이러한 규범 차이 속에서 AI가 만들어낸 문장이 ‘국제법상 위법한 정보’인지 아닌지를 합의할 수 있는 공통 기준조차 부재한 상황이다.
책임 없는 생성물은 무기보다 위험할 수 있다
핵무기, 생화학무기, 사이버 무기는 모두 통제 대상이 있지만,
AI가 만든 허위정보는 현재 어떤 통제 체계에도 속하지 않는다.
그렇기 때문에 어떤 면에서는 훨씬 위험하다. 특히, 허위정보가 의도치 않게 외교적 도발로 해석될 경우, 국제 분쟁을 촉발할 가능성도 무시할 수 없다.
더 큰 문제는 피해 당사국이 “누구에게 문제를 제기해야 할지 알 수 없다는 점”이다.
국제분쟁이 발생했음에도 책임 주체가 명확하지 않다면 사법 절차로도 이어지지 못한다.
이는 국제법의 근간을 흔드는 문제로 AI 시대에 들어 국제법이 책임의 경계와 작동 조건을 재정립해야 할 필요성을 제기하고 있다.
해결책은 존재하는가?
현재로서는 뚜렷한 해결책은 없지만 일부 제안은 등장하고 있다.
첫 번째로는 AI 행위에 대한 국가 간 조약 체결: 특정 수준 이상의 AI가 생성한 콘텐츠에 대해 사전 검증 의무를 부과하는 협약
두 번째는 플랫폼 공동 책임 모델: 생성형 콘텐츠가 유포된 경우, 플랫폼도 일정 부분 책임을 지는 구조
세 번째로는 국가별 사전 규제 체계 구축: 허위정보가 분쟁을 유발할 가능성이 있는 민감 주제(AI 외교, 군사 정보 등)에 대해 사전 필터링이다.
하지만 이러한 대책은 표현의 자유 침해, 기술 발전의 위축, 국가 간 검열 논란 등 다른 문제와 충돌할 가능성도 높다.
궁극적으로는 AI가 '누구의 도구였는가'에 따라 책임이 정해지는 새로운 법적 원칙이 필요하다.
AI가 만든 허위정보는 단순한 기술 문제가 아니라 국제 질서의 불안정성을 유발할 수 있는 외교 리스크다.
하지만 현재의 국제법 체계는 이를 효과적으로 규정하거나 책임 주체를 특정할 수 있는 틀을 갖추지 못하고 있다.
AI는 의도를 가지지 않지만 그 결과는 국가를 움직이게 만들 수 있다.
그렇다면 과연 우리는 책임 없는 생성물에 대해 얼마나 더 오래 법의 바깥에서 방치해 둘 수 있을까?
지금 이 질문에 답하지 않는다면 다음 국제 분쟁은 총이 아니라 알고리즘으로 시작될 수도 있다.