인공지능 국제 입법 추세와 국내 법안 비교검토하는 국회토론회 개최
– ‘사후 규제’ 원칙으로는 인공지능 위험성과 오남용 대비할 수 없어
– 과기부, 인공지능 총괄 관장하면서 인권과 윤리까지 포괄할 수 있나
- 지난 7/20(목) 16개 인권·시민사회단체와 더불어민주당 장경태 국회의원, 황운하 국회의원, 정의당 장혜영 국회의원은 국회 토론회 <EU와 미국은 왜 인공지능을 규제하려는가? 소비자 안전과 인권 보호를 위한 인공지능에 대한 각국의 노력이 주는 함의>를 공동개최하였습니다. 그동안 시민사회는 특정 부처가 아닌 인권, 소비자보호, 개인정보보호 등을 소관하는 기관들이 함께 인공지능의 위험성과 기본권 침해를 예방할 수 있는 공적 체계를 마련해야 한다고 주장해 왔습니다. 이와 같은 취지에서 토론회에는 산업 진흥 부서인 과기부 뿐 아니라 인권위, 공정거래위와 개인정보보호위 및 국회입법조사처 담당자 등이 두루 참여해 인공지능의 공공성 확보에 대해 논의했습니다.
- 발제자로 참여한 유승익 한동대 연구교수는 인공지능 시스템이 제기하는 문제가 프라이버시나 데이터권에 국한되지 않는다고 설명했습니다. 유승익 교수는 인공지능은 시민의 권리와 자유에 관한 역량을 높인다는 장점도 있지만, 인권 침해나 여론조작, 가짜뉴스에 따른 의사결정 과정 왜곡, 기업의 정보 과다 보유 등을 유발해 결과적으로 정치적 공동체의 운명까지 기업이 좌우할 수도 있음을 지적했습니다. 이에 따라 세계 각국은 인공지능 사회의 다양한 위험성을 예방하기 위해 규제마련에 나서고 있다며 대표적으로 유럽연합과 미국의 입법례를 제시했습니다. 이어 국회 과방위 소위에서 합의하였다고 알려진 우리나라 인공지능법안의 문제점을 지적하며 적어도 국가는 인공지능 시스템이 갖는 한계와 오용 가능성을 파악하고 대비하는 최소한의 공적 체계를 갖춰야 한다고 주장했습니다. 특히 위험을 예측하기 어려운 인공지능에 ‘우선허용 사후규제 원칙’을 적용하는 것은 아무런 방패막 없이 국민을 위험에 내모는 것일 뿐 아니라 규제의 예측가능성을 떨어뜨려 산업진흥에 반드시 유리하지도 않다고 지적했습니다. 무엇보다 기술관료 중심의 과기정통부가 인권, 윤리, 공정성, 신뢰가능성 등의 가치를 두루 고려하면서 인공지능의 설계, 기술개발 단계에서 출시, 서비스 및 사후 관리 등 인공지능 생애 주기 전과정을 총괄, 관장할 수 있는지 검토해야 한다고 주장했습니다.
- 허진민 참여연대 공익법센터 소장은 인공지능의 문제는 동시대 세계 각국이 함께 직면하는 문제인 만큼 다른 나라의 입법 논의를 비판적으로 검토하고 고려해야 한다고 강조했습니다. 세계적으로 인공지능 규제정책은 일반 산업이나 디지털 및 인터넷 경제에 대응하는 정책적 경향과 다르다고도 설명했습니다. 인공지능의 잠재적 위험성을 최소화하고 신뢰성 확보라는 목적을 조화롭게 달성하기 위한 최소한의 공적 체계를 마련하기 위해선 유럽연합의 리스크 기반 규제체계 도입도 입법과정에서 반드시 고려해야 한다고 주장했습니다.
- 시민사회 측 토론자로 참석한 정보인권연구소 장여경 상임이사는 미국의 인공지능 규제동향을 살펴보고, 미국 의회에 2022년 발의된 알고리즘 책무성 법안과 유럽연합의 인공지능 법안을 비교 평가하였습니다. 소비자시민모임의 허유경 이사는 소비자와 관련한 영역에서 알고리즘 및 인공지능의 적용으로 발생한 차별 및 편향성 연구사례, 최근 생성형 인공지능의 등장으로 대두된 내용 조작, 오류, 안정성 등의 문제, 인공지능을 활용한 담합, 반경쟁 등으로 인한 소비자 권익 침해와 시장질서 왜곡 문제 등을 지적했습니다. 보건의료단체연합 전진한 정책국장은, 검증되지 않은 인공지능은 임상시험을 거치지 않은 신약보다 더 위험하다고 지적했습니다. 인공지능은 단지 개인에게 생의학적 문제를 일으키는 데 그치지 않고 불특정 다수에게 생명권, 건강권을 포함한 광범한 안전침해를 일으킬 수 있기 때문입니다. 또한 부정확한 진단과 치료로 개인의 건강 위협, 대규모 의사결정 시스템이 낳는 집단적 건강문제, 의료불평등과 차별 강화·영속화 그리고 의료비 증가와 상업화 추세를 우려했습니다. 인공지능의 불투명성, 확장성, 복잡성 등은 책임소재 문제 등 의료현장의 혼란을 낳을 것이란 점도 덧붙였습니다.
- 참석한 정부기관 관계자들 또한 인공지능법안에 대한 각 기관의 견해를 밝혔습니다. 인공지능법안을 추진하고 있는 과기정통부의 최동원 인공지능기반정책국 과장은 위험성에 대한 우려와 규제 필요성에 대해서는 공감하나, 국가별로 법적규제와 자율규제의 방법적 차이가 있다고 주장했습니다. 미국과 영국은 자율규제방식이고 유럽연합내 AI산업을 보호하기 위해 유럽연합은 법적 규제방식을 채택했다는 것입니다. 한편 인권위의 김재석 인권정책과 과장은 과방위 소위 통과 법안이 이용자와 정보주체 권리를 보장하지 못하고, 고위험인공지능에 대해서만 규율하고 있으며 그 실효성 담보도 어렵다고 지적했습니다. 그러면서 이용자와 정보주체의 권리 명시 및 피해구제 절차 마련, 분야별 영역별 위험성 고려한 인공지능 등급 분류, 고위험인공지능 확대 재정의, 인공지능 영향평가 도입 등을 요구했습니다. 아울러 인공지능 산업 진흥과 규제의 분리를 제안하며, 인권위가 조만간 국회에 법안에 대한 의견을 표명할 것이라고 밝혔습니다. 개인정보보호위원회 이병남 정책과장은, 인공지능사이클 전단계에 개인정보 이슈가 있다고 인정하면서 다양한 영향평가 방법 중 적절한 모델을 개발 중이라고 설명했습니다. 또한 사회적 합의를 종합하여 규제를 마련할 것이며 8월말에 개인정보보호위원회 차원에서 공개된 정보의 수집과 활용의 방향성을 제시할 예정이라고 했습니다. 공정거래위원회 강승빈 시장감시정책과 서기관은 공정위가 오래전부터 알고리즘의 편향성 등의 문제를 다루어 왔다고 설명하면서 인공지능의 경쟁촉진 효과와 반경쟁적 악용 가능성도 있다는 점을 인정했습니다. 따라서 알고리즘의 자사우대, 네트워크 효과, 승자독식 방식 등은 반경쟁적 행위로 규제가 필요하고, 공정위도 내부 논의를 진행하겠다고 설명했습니다. 국회입법조사처의 박소현 입법조사관은 토론문을 통해 인공지능법 제정 과정에서 산업 육성과 지원, 그리고 국민 인권과 기본권 보호라는 두 가치의 적절한 조화점을 반드시 찾아야 한다고 강조했습니다. 이에 사후규제라는 방식이 인공지능의 잠재적 위험성과 파급력 관리라는 관점에서 매우 부적절하며, 허용할 수 없는 인공지능을 규정하고 고위험인공지능 개발 및 활용시 의무를 강제할 수단을 마련해야 한다는 주장에 동의한다고 밝혔습니다.
- 토론회 마지막에 행사를 공동주최한 장경태 의원은 과방위 소위를 통과한 인공지능법 제정안이 앞으로 추가 병합 심사를 한 후 과방위 전체회의에서 논의하는 절차가 남았다고 설명하면서, 앞으로 좀더 바람직한 법이 제정될 수 있도록 하겠다는 입장을 밝혔습니다. 끝.
2023. 7. 24.
건강권 실현을 위한 보건의료단체연합 · 광주인권지기 활짝 · 무상의료운동본부 · 민주사회를위한변호사모임 디지털정보위원회 · 사단법인 정보인권연구소 · 서울YMCA 시민중계실 · 소비자시민모임 · 언론개혁시민연대 · 연구공동체 건강과대안 · 전국민주노동조합총연맹 · 전국사무금융서비스노동조합 · 전북평화와인권연대 · 진보네트워크센터 · 참여연대 · 천주교인권위원회 · 홈리스행동