국회 과방위 접수·상정된 인공지능 법안에 대한 시민단체 의견서 제출
-인공지능 법안, 인공지능에 의해 발생할 수 있는 위험의 완화·책임의 부과 및 피해의 구제수단 반드시 마련해야
-인공지능 위험에 대한 실효적 대책이 없는 입법에 근본적 의문
1. 오늘(10/31) 민변 디지털정보위원회·정보인권연구소·진보네트워크센터·참여연대는 현재 국회 과학기술정보방송통신위원회에 접수되거나 발의되어 있는 11개 인공지능 법안(인철수/정점식/조인철/김성원/민형배/권칠승/한민수/황희/배준영/이훈기/김우영 의원안, 발의 순서)에 대해 시민사회의 입장을 국회에 제출하였습니다. 이들 단체는 지난 7월 국민의힘 당론안인 정점식 의원안에 대한 의견을 발표한 데 이어 11개 법안의 세부 쟁점 및 조항에 대해 구체적인 의견을 조목조목 밝힌 것입니다.
2. 시민사회는 이번 의견서에 ①인공지능 개념 정의, ②금지되는 인공지능, ③고위험 인공지능의 유형, ④고위험 인공지능 사업자의 책무 및 벌칙 규정, ⑤기본 원칙, ⑥범용 인공지능, ⑦인공지능 사업자에 대한 검인증, ⑧영향을 받는 사람들의 권리 및 구제, ⑨인공지능 국가거버넌스, ⑩기타 쟁점에 대한 의견을 담았습니다.
3. 우선 시민사회는 현재 발의된 대부분의 인공지능 법안은 인공지능의 범위를 모호하게 규정하고 있어 국제적으로 사용되고 있는 OECD의 인공지능 개념과 맞지 않으며, 인공지능의 수범 주체 범위 역시 명확하지 않아 인공지능에 영향을 받는 주체가 누구인지, 책임을 부담하는 주체는 누구인지, 어떠한 권리를 누구에게 부여해야 하는지 명확하지 않아 기업과 국민 모두에게 혼란을 줄 수 있다고 지적했습니다.
또한 권칠승 의원안을 제외하고는 ‘금지되는 인공지능’ 관련 조항을 포함하고 있지 않은 데다 권칠승 의원안조차도 관련 결정을 시행령에 전적으로 위임하는 등 자칫하면 비윤리적인 인공지능 시스템을 허용할 위험이 있다고 우려하였습니다. 이 뿐 아니라 대부분의 안이 ‘고위험 인공지능’ 개념과 ‘고위험 인공지능 사업자의 책무 및 벌칙 규정’이 지나치게 협소하고 제한적이라 인공지능의 신뢰성 확보 및 정책 실효성 효과가 떨어질 우려가 있다고 밝혔습니다.
4. 기본원칙에 대하여는 현재 인공지능과 관련해 가장 큰 위협의 하나로 거론되고 있는 인공지능의 차별적 결정의 문제와 불투명성 및 설명 불가능성에 대한 원칙이 안철수, 권칠승, 황희 의원안에만 담겨 있다며, 법안 심사과정에서 이를 수렴할 것을 촉구했습니다. 또한 대부분 법안이 생성형 인공지능에 대해서 규정하고 있는데 이는 매우 제한적인 범위임을 지적하며 ‘범용 인공지능(General Purpose AI)’으로 확대해 적용할 것을 요구했습니다.
아울러 인공지능 사업자에 대해 자율적인 검인증 대신 평가 역량이 있는 검인증 기관 도입 역시 필요하다고 짚었습니다.
이어 시민사회는 발의안들의 가장 큰 문제 중 하나는 인공지능의 개발 및 활용 과정에서 ‘영향을 받은 사람’에 대한 구제 절차가 전혀 없는 등 영향을 받는 사람들의 권리에 대해 무관심하다는 점이라고 강조했습니다. 황희 의원안만이 ‘이용자의 권리’로 권리에 대해 규정하고 있지만, 해당 인공지능 서비스를 직접 이용하지 않지만 그 결정의 영향을 받는 사람들까지 규정이 적용되는지 모호하다는 지적입니다.
아울러 시민사회는 인공지능법을 집행하고 준수를 감독하며 피해를 구제하기 위한 관할 당국은 독립적인 기관이어야 한다고 강조하며 인공지능 산업육성에 치우쳐 있는 과기정통부가 주무를 담당하게 되는 것에 우려를 표했습니다.
5. 시민사회는 정부와 기업이 인공지능 규제 최소화를 주장하는 지금 자율주행차가 이미 운행을 시작하였고, 산업 현장에 인공지능 로봇의 도입이 빠른 속도로 증가하고 있으며, 검찰, 경찰, 사회복지 돌봄 등 공공영역에서도 인공지능 도입이 크게 늘었지만, 그럼에도 인공지능법안들에 인공지능이 사람들의 안전, 인권, 차별에 대한 위험에 대한 대책이나 책무가 규정되어 있지 않다고 비판하였습니다. 따라서 인공지능법은 인공지능에 의해 발생할 수 있는 위험을 완화하고 적절한 책임을 부과하며, 피해를 구제하는데 필요한 대책을 포함할 것을 촉구했습니다. 끝.
▣ 붙임. 인공지능 법안에 대한 시민사회 의견서