AI입장

정부, 공공부문 AI시스템 활용실태마저 파악 못하는 등 준비 미비 드러나{/}[공동성명] 인공지능 사회전환은 인권에 기초하고 시민의 안전과 신뢰가 보장되어야 한다

By 2026/01/08 No Comments

인공지능 사회전환은 인권에 기초하고 시민의 안전과 신뢰가 보장되어야 한다

– 감사원 실지감사 통해 공공부문 AI도입 현황 및 실태 공개돼
– 정부, 공공부문 AI시스템 활용실태마저 파악 못하는 등 준비 미비 드러나

 

1. 감사원은 2024년 11월부터 2025년 4월까지 공공부문(국가기관, 지자체, 공공기관)이 활용하고 있는 인공지능에 대한 신뢰성 감사를 실시하고, 2026년 1월 5일 그 감사결과를 공개하였다. 감사원은 인공지능을 ①고영향 ②생성형 ③일반 등 3개 유형으로 구분하여 신뢰성 확보를 위한 정부 대책의 실효성을 점검하되, 공공부문이 실제 활용 중인 인공지능을 대상으로 리스크를 실증적으로 분석하였다. 이번 감사원의 감사결과는 공공부문 인공지능 활용에 대하여 처음으로 실증적으로 진행한 감사라는 점에서 그 의미가 크다고 할 것이다. 정부는 인공지능산업 육성에 치중할 것이 아니라 감사원의 감사결과 확인된 문제점들을 해소, 해결하기 위한 조치를 조속히 취해야 한다. 아울러 이번 감사를 통하여 인권기반의 인공지능 시대를 위하여 풀어야 할 과제와 방향을 사회적으로 공론화해야 한다.

2. 감사결과에 따르면 ①고영향 인공지능의 경우 인공지능기본법 제정으로 관리체계가 마련되어 있으나 실제 다양한 활용 형태가 분류기준에 반영되어 있지 않았고, 고영향 인공지능의 보호 대상에 이용자만 포함되면서 직접 피해를 받을 수 있는 영향받는 자에 대한 보호 대책이 미흡하며, ② 인공지능기본법 시행으로 공공부문은 검·인증을 받은 고영향 인공지능을 우선적으로 사용해야 하나, 아직까지 검·인증을 담당할 기관과 관련 기준이 정비되어 있지 않았으며, ③생성형 인공지능의 경우 대표적인 오남용 사례인 딥페이크 음란물 피해가 발생하면 방심위가 통신사업자에게 접속차단을 요청하고 있으나, 차단목록 송수신 과정의 오류나 우회접속 차단 미흡 등으로 상당수의 불법 음란물에 대한 접속이 계속 가능해 피해자가 제대로 구제받지 못할 우려가 있으며, ④일반 인공지능의 경우 지능형 CCTV의 성능·신뢰성 향상을 위해 학습·평가에 사용되는 데이터를 개선할 필요가 있고, ⑤공공부문이 행정 효율도를 높이기 위해서는 행정현장의 목소리와 개발자의 의견을 듣는 절차를 거쳐 인공지능 도입·운영 관련 매뉴얼을 정비할 필요가 있다고 지적하였다.

3. 이러한 감사원의 감사결과 확인된 사실관계를 바탕으로 아래와 같은 점을 지적하고자 한다.

첫째, 공공부문이 활용하고 있는 채용인공지능의 문제점이다.

감사 결과 공공부문이 활용 중인 고영향 인공지능은 주로 채용절차에 활용되고 있다는 사실(91개 기관)이 확인되었는데, 채용절차에 활용되는 인공지능의 경우 판단결과를 참고자료로 활용하는 기관도 있지만, 실제 인공지능의 판단이 서류심사나 면접심사 결과의 전부 또는 일부를 직접 결정하는 경우도 있었다. 즉 인공지능기본법 상 채용 등 개인의 권리·의무 관계에 중대한 영향을 미치는 판단 또는 평가에 활용되는 고영향 인공지능으로 활용하고 있는 것이다.

그런데, 문제는 감사원이 지적한 바와 같이 공공부문이 채용 인공지능을 활용하면서도 채용을 지원하고 평가의 대상인 된 자, 즉 영향받는 자에 대하여 채용결과에 대한 이의 제기권, 피해 발생시 책임의 주체나 구제방안 등 직접적인 보호 수단이 전혀 마련되어 있지 않다는 점이다.

이에 대하여 시민사회에서는 지속적으로 인공지능기본법에 ‘영향을 받은 자’가 자신에 대한 결정에 대하여 합리적인 이의를 제기할 권리와 인공지능 산출결과에 대해 명확하고 의미 있는 설명을 받을 권리를 보장해야 한다고 주장하였고, 해당 감사결과 역시 일맥상통하는 지점이라고 할 것이다.

한편, 인공지능기본법 상 ‘영향을 받는 자’의 권리가 규정되어 있지 않다고 하더라도, 개인정보 보호법 상 정보주체는 인공지능 기술을 적용한 시스템을 포함하여 완전히 자동화된 시스템으로 개인정보를 처리하여 이루어지는 결정에 대하여 자신의 권리 또는 의무에 중대한 영향을 미치는 경우 해당 결정을 거부할 수 있고, 해당 결정에 대하여 사람의 개입을 통한 재처리 요구까지 행사할 수 있는 권리를 규정하고 있다. 채용인공지능이 대표적인 경우에 해당할 것이고 감사원이 지적한 바와 같이 채용 인공지능 활용의 경우 채용대상자가 위와 같은 권리를 행사할 수 있도록 보장해야 할 것이다.

근원적으로는 채용 인공지능을 채용에 활용하는 공공부문 기관이 단지 인공지능기본법 상 단순한 이용자인지 다시 살필 필요가 있다. 인공지능기본법 상 책무의 주체인 인공지능사업자는 ‘국가기관’을 포함하는 것으로 국가기관을 포함한 공공기관 역시 인공지능사업자가 될 수 있다. 공공부문 기관이 자신의 업무를 수행하기 위하여 인공지능을 활용하는 경우 단순 ‘이용자’ 지위에 있다고 한다면 이로 인하여 채용대상자와 같은 영향받은 자에 대한 보호의 공백이 발생할 뿐만 아니라, 인공지능의 신뢰성 및 안전성 확보에 관한 책임을 지울 수 없기 때문이다. 따라서 인공지능제품 또는 서비스를 형태나 내용의 변경 없이 그대로 이용하는 ‘이용자’와 달리 최소한 인공지능을 ‘업무 목적’으로 이용하여 영향받는 자에 대하여 직접적인 영향을 미치는 경우 해당 기관은 인공지능이용사업자에 합당한 책무를 져야 할 것이다.

둘째, 인공지능 기술을 활용한 지능형 CCTV의 문제점이다.

감사결과에 따르면 2024년 말 현재 공공부문이 사용 중인 인공지능 제품과 서비스 625개 중 지능형 CCTV가 228개로 대부분을 차지하고 있으나 객체(사람, 사물)의 행동 패턴을 분석해 배회, 침입, 싸움, 방화 등의 위험징후를 자동 감지하는 지능형 CCTV의 탐지정확도가 낮아 오류가 많다는 점이 지적되었다. 난간에 몸을 앞으로 내밀고 있는 사람을 침입 상황으로 탐지하거나, 공원에서 팔을 크게 돌리며 어깨 운동을 하는 사람 등을 싸움 상황으로 인식하거나 했던 것이 대표적 사례이다.

우선, 감사원은 감사보고에서 지능형 CCTV를 일반인공지능으로 분류하고 있으나, 유럽연합 인공지능기본법(EU AI Act)에서는 법집행 목적으로 공공장소에서 원격으로 얼굴을 인식하는 인공지능 시스템을 기본적으로 금지하고 있다. 공공장소에 있다는 이유만으로 개인에 대한 인권을 침해하거나 국가기관에 의한 시민 감시 시스템으로 오용될 위험성이 높다는 이유 때문이다.

지능형 CCTV의 운영 근거가 ‘재난 및 안전관리 기본법’에 법적 근거가 있다고 하더라도 인공지능 기술이 활용된 지능형 CCTV 운영은 시민의 사생활을 침해할 우려가 커 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 ‘고영향 인공지능’에 해당할 수 있다고 할 것이다. 그래서 시민사회에서는 인공지능기본법 시행령으로 공개된 장소에서 실시간 원격 생체인식에 활용하거나, 범죄를 저지를 가능성을 평가하거나 예측할 목적으로 자연인에 대한 위험평가를 실시하는 인공지능을 최소한 고영향 인공지능으로 규정해야 한다는 의견을 내고 있다. 더군다나 이번 감사결과에 따르면 지능형 CCTV의 탐지정확도가 낮아 실제 아무런 문제가 없는 개인의 행동을 이상징후로 판단하여 시민에 대한 잘못된 평가나 예측을 하고 공권력을 행사하여 기본권을 심대하게 침해할 수 있다는 점을 확인시켜 주고 있다.

다만 감사원은 공공부문 기관이 운영하고 있는 지능형 CCTV를 일반 인공지능으로 분류하고, 학습데이터 확보개선 문제로만 국한하여 판단하고 있으나, 지능형 CCTV의 문제는 시민의 기본권에 중대한 영향을 미칠 수 있는 고영향 인공지능으로 최소한 인식해야 하며, 국가는 이러한 인식 하에 지능형 CCTV 운영의 신뢰성을 높이기 위하여 전반적인 점검과 검토를 해야 할 것이다.

셋째, 공공부문에서 AI의 성능을 검증하는 절차가 미흡하다는 점이다.

서울시 11개 자치구 표본점검 결과 지능형 CCTV의 침입 등 3개 항목 실제 탐지 정확도가 12~52% 수준이었을 뿐만 아니라, 한국도로공사가 활용하고 있는 포트홀 감지시스템의 탐지 정확도 역시 14.7% 수준이었다고 한다. 근로복지공단의 ‘직업 복귀 통합시스템’의 추천 적중률도 53.7%로 개발목표에 미달했다. 채용절차에 사용 중인 인공지능 시스템 역시 각 기관이 원하는 인재를 AI가 어떻게 평가했는지, 각 기관이 이를 평가하는 절차를 보유하고 있는지 의문이다. 시민사회단체가 이에 대한 정보공개를 청구했을 때에도 대부분의 공공기관은 관련 자료를 보유하고 있지 않았다. 이는 공공기관에서 이미 AI를 도입하여 활용하고 있음에도 불구하고, 해당 AI의 성능과 편향성 등을 검증할 수 있는 절차가 미흡하다는 점을 보여준다. 정부는 AI 시스템을 개발하거나 민간이 개발한 AI 시스템을 도입할 때, AI의 성능과 편향성을 검증할 수 있는절차를 보완하고, AI 도입 현황 및 평가 결과를 투명하게 공개해야 한다.

4. 얼마 전 공개된 국가인공지능행동계획안에서는 국가데이터 통합플랫폼을 통하여 민간과 공공 데이터를 자산화하고 전 공공부문에서의 인공지능 도입을 국가행동계획으로 제시하고 있다. 하지만 이번 감사결과에 따르면 정부는 공공부문 인공지능시스템 활용실태마저도 정확하게 파악하지 못하고 있었고, 공공부문 인공지능 활용을 위한 조달과정에서 반영될 검∙인증 기준 자체도 마련되어 있지 않다. 앞에서 지적한 공공부문에서의 채용인공지능, 지능형 CCTV의 활용 등에서의 문제점은 신뢰성을 가진 인공지능 활용을 위하여 필요한 기본적 조치마저도 국가기관이 제대로 하지 못하고 있다는 것을 보여 주고 있다. 정부가 내세우고 있는 인공지능 사회전환은 인권에 기초하고 시민의 안전과 신뢰가 보장될 수 있는 방식으로 진행되어야 한다는 점을 이번 감사원 감사결과가 확인시켜 주고 있다는 점을 명심해야 할 것이다. 끝.

공공부문 채용AI 영향받는 자의 이의제기권 등 직접적인 보호 수단 마련하라.

사생활 등 기본권 침해하는 지능형 CCTV ‘고영향’으로 분류하라.

AI성능과 편향성 검증절차 보완하고 도입현황, 평가결과 투명하게 공개하라.

2026. 1. 8.

디지털정의네트워크, 민주사회를위한변호사모임 디지털정보위원회, 정보인권연구소, 참여연대