소식지인공지능

Stop Killer Robots, Legal Arguments{/}[해외정보인권]킬러로봇을 금지하라, 캠페이너스 키트 – 법리적 논거

By 2021/12/28 1월 12th, 2022 No Comments
STOP KILLER ROBOTS 배너 이미지

편집자주 :

킬러로봇/자율살상무기라는 말은 아직 어색합니다. 우리가 영화나 문학, 게임을 통해 접하는 인공지능 살상 무기와 현실의 인공지능 기반 살상 무기는 꽤나 다르게 느껴지기 때문입니다. 사실 완전한 자율 무기가 등장할 수 있을지 미지수이기도 합니다. 그럼에도 여러 군사강국은 인공지능 기반의 자율무기 개발에 엄청난 자원과 힘을 쏟아붓고 있습니다. 무기수출로 세계 10위 안에 드는 한국 또한 예외는 아닙니다. 인공지능의 무기화를 반대하는 국제적인 흐름과 여러 국가들이 있지만 세계가 모두 합의할 국제협약이 제대로 만들어질 수 있을까요? 이번에 소개할 것은 완전자율무기를 반대하는 운동을 펼쳐온 Stop Killer Robots에서 발행한 캠페이너스 키트 중 완전자율무기의 불법성 등에 대한 법리적 논거를 소개하는 글입니다.

번역오류는 policy 골뱅이 jinbo.net 으로 알려주세요.
제목 : 킬러로봇을 금지하라, 캠페이너스 키트 – 법리적 논거
원문제목 : Stop Killer Robots – Campaigner’s Kit Legal arguments
원문링크 : https://www.stopkillerrobots.org/resource/campaigners-kit/
일시 : 2020년 2월 27일
작성 : Stop Killer Robots, Bonnie Docherty and Matthew Griechen Harvard Law School International Human Rights Clinic (IHRC)

법리적 논거

완전자율무기(fully autonomous weapons), 또는 “킬러로봇”에 반대하는 법리적 논거는 이 새로운 기술을 금지하기 위한 도덕적, 기술적, 안보에 대한 주장을 뒷받침합니다. 완전자율무기는 국제인도법과 국제인권법을 위반할 위험이 있으며 불법적 행위에 대한 책임의 공백을 야기할 수 있습니다.

 

국제인도법 INTERNATIONAL HUMANITARIAN LAW

전쟁법이라고도 알려진 국제인도법(IHL)은 전장에서의 완전자율무기 사용을 규제합니다. 이러한 무기는 의미 있는 인간의 통제가 없이 운용되기 때문에, 국제인도법의 두 가지 기본 규칙을 준수하는 것에 특히 어려움을 겪을 것입니다.

첫째, 국제관습법(International customary law)과 제네바 협약 제1추가의정서 제48조에 따르면 충돌당사국들로 하여금 민간인과 전투원, 그리고 민간물자(가옥이나 학교 등)와 군사목표물을 구별할 것을 의무화하고 있습니다. 이러한 구별을 할 수 없는 무기는 “무차별적인 것”이며 조항에 어긋난 것으로 간주됩니다.

킬러로봇은 구별 규칙을 준수하는 데 중대한 문제가 있습니다. 특히 전투원이 지역 주민과 자주 혼재되어 있는 시대에, 민간인과 전투원을 구분하는 것은 복장을 인식하는 것 이상의 일입니다. 이는 목소리 톤, 표정, 몸짓과 같은 단서를 통해 사람의 의도를 이해하는 데 달려있습니다. 인간은 이러한 뉘앙스를 기계보다 더 잘 이해할 수 있습니다.

둘째, 국제관습법과 제1추가의정서 51조(5)(b)는 충돌당사국이 공격의 비례(proportionality)를 평가할 것을 요구합니다. 해당 조항은 예상되는 구체적이고 직접적인 군사적 이익에 비해 민간인 및 민간물자에 대한 예상 피해가 과도한 공격을 금지합니다. 비례성은 수학적으로 계산할 수 있는 방정식이 아닙니다. 이는 상황에 따라 다르며 요구되는 것은 “합당한 군 지휘관”이 공격을 개시하는 것이 적법하다고 판단했는지 여부입니다.

완전자율무기는 특정 공격의 비례성을 평가하는 데 필요한 인간의 판단을 모사할 수 없습니다. 전장에서 발생할 수 있는 무한대의 시나리오를 프로그래머들이 사전에 설계해둘 수 없기 때문에, 완전자율무기는 예측할 수 없던 변화하는 상황에 직면하게 될 것입니다. 그러나 인간과 달리 기계는 이러한 주관적인 요건과 그 관련 요소의 균형을 맞출 때 인간의 이성과 경험을 적용할 수 없을 것입니다.

 

마르텐스 조항 THE MARTENS CLAUSE

신기술을 개발하거나 사용하는 국가는 법과 윤리를 연결하는 국제인도법 조항인 이른바 마르텐스 조항을 반드시 고려해야만 합니다. 제1추가의정서 1조(2) 등 여러 곳에 명시되어 있는 마르텐스 조항은 공백을 메우는 조항입니다. 이는 특정 주제에 대해 구체적인 국제협정이 없는 경우에도 사람들은 “관습”, “인도원칙”, “공공양심의 명령”에 의해 여전히 보호받고 있다고 선언합니다.

완전자율무기는 인도원칙에 따라 심각한 우려를 가져옵니다. 인간은 다른 사람들의 경험에 대해 연민과 공감을 느낄 수 있기 때문에 서로를 인도적으로 대하려는 동기가 부여됩니다. 이와 반대로, 완전자율무기는 인도적 대우의 기초가 되는 정서적 능력이 부족합니다. 인도원칙은 또한 인간 생명의 존엄성에 대한 존중을 요구합니다. 비생명체인 완전자율무기는 생명의 가치와 죽음의 의미를 진정으로 이해할 수 없습니다. 이는 알고리즘을 기반으로 누구를 죽일지 결정하며 개별 희생자의 천부적인 가치를 고려하지 않을 것입니다.

사회가 공유하는 도덕적 지침을 언급하는 공공양심의 명령도 마찬가지로 완전자율무기에 반대함을 분명히 보여줍니다. 2018년 12월, 26개국 여론조사에서 60% 이상의 사람들이 킬러로봇에 반대한다고 응답했습니다. 또한 군축과 인권, 평화와 종교, 과학과 기술, 그리고 산업 분야의 지도자들 모두 특히 도덕적인 이유를 들며 해당 기술을 규탄했습니다. 마지막으로, 국가가 완전자율무기의 금지 또는 무력 사용에 대한 인간의 통제를 요구할 때 흔히 양심에 호소해왔습니다.

 

국제인권법 INTERNATIONAL HUMAN RIGHTS LAW

완전자율무기가 전장을 넘어 법 집행 상황에서도 사용될 가능성이 높다는 점을 고려할 때, 이는 무력충돌은 물론 평화 시에도 적용되는 국제인권법에서도 평가되어야 합니다.

첫째, 시민적 및 정치적 권리에 관한 국제규약 제6조에 따르면 모든 사람은 고유한 생명권을 가지며 이는 어느 누구도 자의적으로 자신의 생명을 박탈당하지 않는다는 것을 의미합니다. 살인은 오로지 인명을 보호하기 위해 필수적이며, 최후의 수단으로 간주되고, 위협에 비례하는 방식으로 적용될 때만 적법합니다. 이러한 요건은 상황에 따라 다르며 킬러로봇은 예측할 수 없는 상황에서 이 결정을 내리는 데 필요한 인간적인 자질, 특히 공감과 판단력이 없을 것입니다.

둘째, 인권 침해의 피해자는 구제받을 권리가 있습니다. 아래에서 더 자세히 논의하겠지만, 예를 들어 완전자율무기가 민간인을 자의적으로 살해함으로써 국제인권법을 위반한 경우 누가 책임을 질 수 있는지 분명하지 않습니다.

셋째, 인간 존엄성의 원칙은 인권법의 근간을 이루고 있습니다. 모든 인간의 생명은 가치가 있고 존중받을 자격이 있습니다. 위에서 논의한 바와 같이 인간의 생명의 가치를 충분히 인식할 수 없는 기계에 생사의 결정을 위임하는 것은 인간 존엄성을 훼손하는 것입니다.

 

책임성 ACCOUNTABILITY

국제인도법과 국제인권법 모두 불법적 행위에 대한 개인의 책임성을 요구합니다. 이러한 개인적 책임성은 과거 피해를 입은 피해자에 대한 응보를 제공함과 동시에 미래의 침해를 억제시킵니다. 그러나 완전자율무기의 불법적 행위에 대해 책임질 사람을 찾는 것은 어려운 일이며 대부분의 경우 거의 불가능합니다.

로봇 자체는 법에 따라 책임을 질 수 없습니다. 범죄는 행동(죽음을 유발하는 행동 등)과 정신 상태(의도 등)를 모두 포함합니다. 완전자율무기는 행동을 수행할 수 있지만 기계이기 떄문에 정신 상태가 결핍되어 있습니다. 나아가 완전자율무기는 인간과 달리 고통을 경험할 수 없기 때문에 처벌할 수 없습니다.

대부분의 경우 인간 또한 로봇의 행동에 대한 형사 책임을 면할 수 있습니다. 로봇과 부하(subordinate)는 둘 다 자율적으로 행동하기 때문에, 완전자율무기와 그 운용자의 관계는 부하와 지휘관의 관계에 비유할 수 있습니다. 지휘관은 부하의 범죄 행위를 알았거나 알았어야 했으며 이를 예방하거나 처벌하지 못했을 때에만 부하의 행위에 대해 법적 책임을 집니다.범죄를 저지를 분명한 의도를 갖고 완전자율무기를 배치한 지휘관은 유죄 판결을 받을지 모르지만, 자율적인 기계의 예측할 수 없는 행동에 대해 책임을 묻는 것은 법적으로 어렵고 불공정할 것입니다.

프로그래머와 제조업체는 민사 소송에서 면책될 가능성이 높습니다. 미국과 같은 일부 국가에서는 무기 제조업체들이 정부의 규격을 따르고 의도적으로 군을 오도하지 않는 한 소송에서 면제됩니다. 또한 제품에 결함이 있음을 입증하기 위해선 중대한 증거 입증을 필요로 합니다. 마지막으로 민사 소송은, 문제가 된 무기가 배치된 국가에 거주하는 피해자들에게 있어 특히 많은 시간과 비용을 요구합니다.

따라서, 완전자율무기는 국제법을 준수하는 데 있어 잠재적으로 극복 불가능한 벽을 맞닥뜨리는 것 뿐만 아니라 지휘관, 운용자, 프로그래머 및 제조업체로 하여금 발생한 침해에 대한 책임을 회피할 수 있도록 합니다.