네트워커 159 호
왜 인공지능 인권영향평가인가!
인공지능 인권영향평가(Human Rights Impact Assessment, HRIA)란 무엇일까요? 제가 챗gpt에 물어봤습니다. “인공지능 인권영향평가(AIHRIA)는 인공지능(AI)시스템이 인권에 미칠 수 있는 잠재적 영향을 평가하는 것을 목표로 하는 프레임워크입니다. AIHRIA의 목적은 AI기술이 인권을 존중하고 보호하는 방식으로 설계 및 배포되도록 하는 것입니다.” 챗gpt가 친절하게 설명을 잘해주었네요.
우리는 챗GPT 답변에 환호하며, 로봇이 배달을 하고, 인공지능이 그림을 그리고, 중요한 의사를 결정하는 시대에 살고 있습니다. 인공지능의 기술은 나날이 혁신적이고 놀랍도록 확장되고 있습니다.
그러나, 그 만큼 많은 문제를 야기하고 있는 것이 사실입니다. 일자리 감소, 편견과 차별, 개인정보보호 문제, 인공지능 의존도, 자율무기 등의 문제를 들 수 있겠죠. 예전, 아마존 채용면접에서 여성-이라는 단어만 있어도 백인 남성보다 감점처리했던 사건, 미국에서 범죄자의 재범가능성을 예측하는 컴파스(COMPAS)는 아프리카계 미국인(흑인)을 잠재적 범죄자로 취급하는 오류율이 높았으며, 자율주행차가 하늘의 밝은 빛으로 구름과 하얀 트럭을 구분하지 못하고 충돌하여 운전자가 사망한 사건, 인공지능 스피커에 부부의 사적인 대화가 녹음돼 지인에게 전송된 사건, 영국의 인공지능 비자신청프로그램에서 백인보다 비백인, 특정국가 출신의 심사를 거절한 사건, 인공지능 기반 무기개발과 전쟁에 이르기까지 수많은 문제가 잇따르고 있습니다.
이러한 인공지능의 차별과 편향으로 전 세계 국가는 인공지능이 인권에 미치는 부정적 영향과 위험을 방지하고 완화하려는 사전적 조치에 공감하고 있습니다. 예방적 조치로 인공지능 인권영향평가를 시행하고 확대하려는 것이고요.
위에서 챗GPT가 ‘인공지능 인권영향평가’를 설명해 주었듯이 국가, 지방자치단체, 기업 등 사업과정이나 정책 등에서 인권에 미치는 영향을 측정하고 평가하는 도구를 말합니다. 인권영향평가는 인권실사의 핵심도구인데요, 유엔 기업과 인권 이행원칙에서 ‘인권실사(Human Rights Due Diligence)’는 “기업 활동이 인권에 대한 부정적인 영향 및 위험을 파악하여 방지하고 완화하는 관리 프로세스”라고 명시하고 있습니다. 인권실사는 ①인권영향평가의 실시, ②내부통합, ③추적 및 검증, ➃소통의 4가지 과정으로 이루어져 있습니다. 그리고 그 중심축이 인권영향평가입니다. 그러나 국내에는 실태조사나 연구조차 미흡한 상황입니다. 국내 인권영향평가는 지방자치단체의 조례에 근거하여 제도화되기 시작하여 경영평가의 일부로 간접적으로 강제되는 등 제도적으로 불완전한 형태를 취하고 있습니다. 인공지능 기술에 대한 인권영향평가에서 명확한 법률적 근거를 마련할 필요성이 있는 것이죠.
이에 국가인권위가 연구용역을 발주하였고, 연구보고서 ‘인공지능 인권영향평가 도입 방안 연구’ – 한동대 유승익 교수를 책임연구원으로 진보넷도 함께 참여했습니다. 인공지능은 기존 제도로 감독하기 어려운 분야이며, 인공지능 인권영향평가의 시행 확대가 절실하게 필요한 시점입니다. 연구보고서에서 국내외 사례를 검토했습니다 그리고 인공지능 인권영향평가를 위한 절차 및 기준안을 제시했습니다. 관심있는 분들은 자료집에서 구체적인 내용을 확인하실 수 있습니다.
불타는 활동의 연대기
– 노동자와의 협의 및 고지 없는 노동자 감시설비 도입은 불법입니다.
지난 1월 31일, 개인정보보호위원회와 고용노동부는 「개인정보보호 가이드라인(인사‧노무편)」을 개정, 발표하였습니다. 이번 가이드라인 개정의 핵심은 사업장 내 디지털 장치를 통한 근로자 개인정보 수집 및 처리를 위한 기준을 포함하고 있다는 것입니다. 그동안 CCTV, 지문인식기 등사업장 내에서 노동자를 감시할 수 있는 디지털장치에 대한 규율할 수 있는 기준이 없었습니다. 2017년에 국가인권위원회가 “사업장 전자감시의 주요 유형별 개인정보 처리의 요건, 절차 및 근로자의 권리 보호 등에 관한 사항을 구체적으로 정할 것”을 권고하였지만, 지금까지 아무런 개선도 이루어지지 않았다가 이번에 개정된 것입니다.
– 행정안전부는 비영리민간단체 독립성 침해 시도를 멈추십시오!
시민사회단체가 ‘행정안전부 비영리민간단체 전수조사’에 비판 성명을 발표했습니다. 윤석열정부는 취임 초기부터 시민사회를 눈엣가시 같은 존재로 취급했는데요. “가장 큰 문제는 시민사회를 악의적 시선으로 보고 전수조사를 진행하고 있다는 점”입니다. 시민사회 활성화와 공익활동 증진에 관한 규정(대통령령) 폐지를 추진하는 것도 모자라, 국고보조금을 받아 다양한 공익활동을 추진하고 있는 시민사회단체를 대상으로 특별감사를 추진하며 ‘국민 혈세를 낭비하는 부도덕한 집단’으로 몰아세우고 있습니다. 부패라는 낙인을 씌우기 위해 시민사회부터 노동조합까지 전방위적으로 압박하고 있습니다.
– 국정원 주도의 ‘대공합동수사단 출범’ 반대합니다!
올해는 국정원의 2024년부터 이관되는 수사권에 대한 국정원의 꼼수가 보입니다. 국정원은 2월 6일 보도자료를 통해 국정원, 경찰, 검찰이 함께 ‘대공합동수사단’을 출범해, 2023년 12월 31일까지 상설 운영하며 국가보안법 위반 사건을 내ㆍ수사 한다고 밝혔습니다. 수사권 이관 뒤에도 대공수사의 주도권 가지려고 판을 짜고 있는 겁니다. ‘국정원 개혁 되돌리기’ 네버 네버 노~노~!!
– 정부와 여당 차원에서 대공수사권 유지론을 공식화했습니다.
지난해 11월, 대통령이 대통령비서실장을 통해 국정원에 신원조사를 요청할 수 있도록 “보안업무규정 시행규칙”을 개정했습니다. 국정원이 국내 정치개입을 목적으로 국내 정보수집을 금한 개정된 국정원법을 무력화시킨 것입니다. 정치권의 행보가 수상합니다. 정진석위원장, 안철수의원을 비롯하여 윤석열 대통령에 이르기까지 ‘대공수사권 이관 재검토’를 잇따라 언급했습니다. 이에, 2023.2.1. [국회토론회]가 개최되었습니다. 자료집도 확인하실 수 있습니다.
해외정보인권
– 전화잠금해제 vs 생체인식 대량감시 : 차이점은 무엇입니까?
얼굴인식은 유럽연합(EU)의 인공지능법(AI Act)에서 뜨거운 논쟁거리입니다.
시간과 장소를 넘어 우리의 몸과 움직임뿐만 아니라 우리의 얼굴을 광범위하게 추적하는 자동감시시스템이 초래하는 위험이 도사리고 있습니다. ‘생체인식대량감시’(biometric mass surveillance)는 우리의 익명성과 자유를 훼손하고 우리의 얼굴과 몸을 무기화합니다. 이 글에서는 생체인식기술의 유형과 그 위험성에 주목하고 있습니다.
인증(authentification/verification)과 식별(identification)이 무엇인지 설명하면서, 생체인식대량감시의 위험성을 강조합니다. ‘인증’은 1:1 A가 A임을 확인하는 것이고, ‘식별’은 흔히 1:n A가 누구인지 불특정 다수에서 찾아내는 것을 의미합니다. 실제로는 n:n(다대다 매칭)이 더 정확하다고 말합니다. 문제는 A가 누구인지 알기위해서 불특정다수의 모든 사람들의 생체정보를 스캔하고 저장한다는 것입니다.
인공지능법안에 ‘인증’과 ‘식별’을 구분은 하고 있지만, 알고리즘 처리의 용량과 능력이 기하급수적으로 증가하고 있고, 그 위험성은 날로 커지고 있습니다. 특히, 공공장소에서의 ‘생체인식대량감시’를 금지해야 하는 법률이 강화될 필요가 있음을 강조하고 있습니다. ‘원격생체인식’의 모든 사용을 전면적이고 포괄적으로 금지할 것을 촉구하고 있습니다.
[이슈] 총회, 잘 마쳤습니다!
진보네트워크센터(진보넷) 2023년 총회가 2월 23일(목) 저녁에 개최되었습니다. 진보넷 활동가를 비롯하여 운영위원님들과 회원님들이 모여서 지난 한 해의 사업을 보고하고, 2023년의 계획을 나누는 자리였습니다. 특히, 중요한 뒤풀이 시간은요! 반가움으로 왁자지껄~소란 소란! 따뜻하게 마음을 나누는 시간이었습니다. 바쁘신 중에도 온라인으로 의결해주시고, 오프라인으로 함께 해주셔서 깊은 감사를 드립니다. 총회 결과는 메일을 통해서 보고드릴 예정입니다 🙂