시민사회단체, 과기부에 「인공지능기본법」 하위법령에 담겨야 할 사항 의견 제출
고영향 AI 해당 분야 구체적, 폭넓게 포함하고,
시민의 인권, 안전 보호할 안전조치 규정해야
-
-
- 민주사회를위한변호사모임 디지털정보위원회, 정보인권연구소, 진보네트워크센터, 참여연대는 오늘(4월 2일) 2026년 1월 22일 시행을 앞두고 있는 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법 ( 이하, ‘인공지능기본법’)」의 시행령에 대한 의견서를 과학기술정보통신부에 제출했다. 과기부는 현재 시행령 초안을 마련하고 있는 것으로 알려져 있다. 그러나 유감스럽게도 시민사회는 시행령 초안 작업 과정에 전적으로 배제되어 있다. 과기부는 시행령 초안 발표 후 의견수렴을 하겠다고 하지만, 시행령의 기본 뼈대가 확정된 상태에서 얼마나 시민사회의 의견을 반영할 수 있을지 의문이다. 이에 시민사회는 「인공지능기본법」 시행령이 기본적으로 규정해야 하는 내용을 의견서로 제시한다고 밝혔다.
- 시민사회는 ▲고영향인공지능의 범위에 누락되어 있는 분야, 영역 추가, ▲국방 또는 국가안보 목적으로만 개발ㆍ이용되는 인공지능은 시행령에 위임할 것이 아니라 아예 별도 입법이 필요하다는 점, ▲국가인공지능위원회 회의록 공개 및 영향을 받는 자들의 참여를 보장할 것, ▲정부지원 학습용데이터의 생산,수집,관리,유통 및 활용은 개인정보보호법, 저작권법 등 관련 법령 준수 및 위반 시 지원회수 등의 내용 포함, ▲공공기관 도입 인공지능 시스템의 주요 사항 국가인공지능위원회 등록할 것, ▲ 데이터센터의 에너지 사용 데이터 공개 규정 명시, ▲인공지능의 안전성 확보 위해 범용AI 등은 위험완화 의무 구체적 부여, 학습데이터 출처, 저작권자의 동의 여부 등 공개, ▲고영향 인공지능 확인은 관련 소관부처나 관계 부처의 의견을 조회 및 협의 요청하도록 하고, ▲고영향 인공지능 개발사업자와 이용사업자 구분해서 책무 규정, ▲ 정부기관, 공공기관, 공공서비스를 조달하는 민간기업의 경우, 영향평가의무 부과 및 영향평가 공개 등을 시행령에 반영할 것 등을 요구했다.
- 「인공지능기본법」의 고영향 인공지능 정의(2조)는 사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 큰 분야 내지 영역을 상당 부분 누락하고 있다. 이에 시민사회는 고영향 인공지능 사업자의 경우 그 위험에 비례하는 책임을 부과받아야 하는 만큼 가능한 구체적으로 고영향 인공지능 유형을 시행령에 규정할 필요가 있다는 점을 강조했다. 범죄 수사나 체포 업무 외의 영역에서 생체인식정보를 분석ㆍ활용하는 데 사용하는 경우, 수사 및 기소, 재판, 형집행 등 기본권을 침해할 수 있는 국가기관의 권한행사에 이용하는 경우, 외국인의 출입국, 난민인정, 귀화 등 출입국 사무에 활용되는 경우, 노무 등 지원자 평가 및 승진, 인사평가, 직무 배치, 업무할당 및 해고 결정 등에 사용되거나, 교육 및 직업훈련 분야의 평가, 기회제공, 자원할당 업무, 부정행위 감시에 활용하거나 선거 및 투표행위, 투표결과에 영향을 미치기 위해 사용되는 인공지능도 고영향 인공지능으로 대통령령에서 명시해야 한다고 주장했다.
- 특히「인공지능법」에는 금지되는 인공지능과 관련한 개념 규정 자체가 존재하지 않은데 수용불가한 위험도를 지닌 인공지능의 경우 개발이나 활용자체를 금지하지 않더라도 최소한 고영향 인공지능으로 포섭하여 사업자에게 적정한 의무를 부과해야 할 것이라고 강조했다. 유럽연합 인공지능법에는 인간의 심리, 사고, 행동 등을 현저하게 왜곡하기 위하여 잠재의식에 영향을 미치는 인공지능, 사회적 행동이나 인격적 특성에 기반한 사회적 점수를 이용하여 특정인의 신뢰도를 평가하거나 분류하는 인공지능, 인적 개입에 의한 조치 없이 무기를 운용할 목적으로 개발되거나, 범죄를 저지를 가능성을 평가하거나 예측할 목적으로 자연인에 대한 위험평가를 실시하는 인공지능은 개발 자체를 금지하고 있다. 동일한 영역의 인공지능이 유럽연합 시민들에게는 금지되어야 할 인공지능인데 왜 우리 국민들에게는 아무런 규제없이 허용되는지 그 어떤 논리적, 과학적 설득력 있는 근거도 없지 않은가 .
- 또한 시민사회는 “국방 또는 국가안보 목적으로만 개발ㆍ이용되는 인공지능”의 이 법 적용 제외(4조)에 대해서도 우려를 표했다. 오로지 국방 또는 국가안보 목적으로만 개발ㆍ이용되는 인공지능과 통상의 목적으로 개발ㆍ이용되는 인공지능을 구분할 수 없는 등 개념이 불명확하다고 지적했다. 무엇보다 이 조항은 하위입법으로 유보할 수 없는 사항으로 법개정을 통해 반드시 삭제되어야한다는 점도 강조했다.
- 학습용 데이터 시책(15조)과 관련해서는 정부가 지원하는 학습용데이터는 그 생산ㆍ수집ㆍ관리ㆍ유통 및 활용에서 개인정보보호법, 저작권법 등 관련 법령을 준수할 것을 보장하도록 명시하고 그렇지 않을 경우 지원을 회수할 수 있어야 한다고 요구했다. 또한 데이터센터 운영(25조)이 지역 공동체의 에너지 수급에 미치는 영향을 고려하도록 하고, 기후위기에 미치는 영향을 측정하기 위해 데이터센터의 에너지 사용에 대한 데이터를 공개하도록 하는 등의 규정을 데이터센터 시책에 포함시켜야 한다고 지적했다.
- 인공지능 투명성 확보 의무(31조)는 개발사업자와 이용사업자를 구분하여 규정하여야 할 필요가 있다는 점도 지적했다. 유럽연합 인공지능법의 경우, 제공자에게 AI 산출물임을 기계 판독 가능한 형식으로 표시, AI로 생성 또는 조작되었다는 것을 탐지할 수 있도록 할 의무를, 배포자에게는 해당 콘텐츠가 AI로 생성 또는 조작되었다는 것을 공개할 의무를 부과하고 있다며 이를 참고할 수 있을 것이라고 설명했다. 또한 인공지능에 기반하여 운용하다는 고지방법은 홈페이지 등에 게시하여 일반인이 쉽게 알 수 있는 방법으로 하도록 규정할 것을 요구했다.
- 한편 안전성확보 의무(32조)에서 범용AI 등 일정 기준 이상 인공지능시스템의 안전을 확보하기 위해서는 그 위험성에 상응하는 위험 완화 의무를 구체적으로 부여할 것을 요구했다. 이와 함께 이러한 인공지능 시스템 제공자의 사회적 책무성을 담보하기 위해서는 ▲학습에 사용된 누적 연산량, ▲학습 데이터의 출처, 저작권자의 동의 등 세부사항, ▲데이터 학습 과정에서 소요된 자원(물, 전기 등)의 사용내역 등을 공개하도록 하는 규정이 포함될 필요가 있다는 점도 덧붙였다. 기업이 다양하게 작성하고 있는 테크니컬 리포트와 별개로 구체적이고 완결성 있는 결과 제출이 될 수 있도록 과기부 장관이 양식을 구체적으로 고시하여 인공지능 안전성 확보를 위한 모니터링 범위를 구체화 할 필요가 있다는 점도 강조했다.
- 고영향인공지능 사업자의 책무(34조)에 대해서는 인공지능 기술을 개발하여 제공하는 자와 개발된 인공지능을 이용하여 서비스를 제공하는 자는 그 의무를 달리 규정할 필요가 있으므로 대통령령에서는 개발사업자와 이용사업자를 나누어 책무를 규정할 것을 요구했다.
개발사업자의 경우,
- 위험관리방안의 수립, 운영 관련 사전 위험분석, 해당 위험 제거 또는 감소 조치 내용 포함할 것, 학습데이터가 야기하는 위험과 관련하여 학습 및 시험 데이터가 품질기준을 충족한다는 점, 적법한 목적에 맞게 데이터가 수집되었으며 격차 및 결함 해결 조치가 무엇인지 자료를 제공하도록 하고
- 설명 방안의 수립 시행 관련하여, 이용사업자 및 영향을 받는 자가 인공지능 시스템의 결정 및 출력의 의미나 근거에 대해 이해할 수 있도록 인공지능 시스템을 설계하고, 이해하기 쉽고 명확한 정보가 포함된 설명자료를 제공한다는 내용이 포함되어야 하고
- 이용자 보호방안 수립,운영 관련, 이용자 안전이나 인권 위해 발생 시 이와 관련된 기술적 문제 즉시 시정 및 그 과정 문서화, 이용자 피해구제 방안 포함할 것, 이용자 뿐 아니라 인공지능 시스템에 의해 영향을 받는 자의 보호방안 포함할 것
- 사람에 의한 관리감독 관련 주기와 관리감독시 확인사항을 구체화할 것
이용사업자의 경우,
- 위험관리방안 : 이용사업자로 하여금 개발사업자가 제공한 정보에 따라서 인공지능기술 제품 또는 서비스를 운영하는데 필요한 기술적ㆍ관리적 조치를 하도록 할 필요가 있음
- 설명 방안 및 이용자 보호 방안 : 개발사업자가 제공한 정보를 고려하여 고영향 인공지능의 작동 상태를 확인하고, 안전에 대한 위험 등 대통령령으로 정하는 사항이 발견되는 경우 이를 고영향 인공지능 제공자에게 통보하고, 직접적인 피해가 예상되는 경우 즉시 사용을 중단하여야 한다는 내용을 법제화할 필요가 있음. 특히 이용자보호방안 관련하여, 이용자의 안전 및 인권 침해가 발생한 경우 이를 보고받고 시정하려는 노력을 문서화 할 필요가 있음.
- 사람에 의한 관리 감독 : 고영향 인공지능의 관리ㆍ감독을 위하여 대통령령으로 정하는 자격을 갖춘 관리자를 둘 필요가 있음.
- 문서의 작성과 보관 : 고영향 인공지능이 자동으로 생성한 로그기록자료를 모두 기록하고 인공지능이용사업자가 개발사업자와 구분되게 추가로 행한 조치 들을 확인할 수 있도록 분리하여 문서를 보관하도록 함
- 인공지능영향평가(35조)에 대해서는 정부기관, 공공기관, 공공서비스를 조달하는 민간기업의 경우, 평가의무를 부과할 것을 요구했다. 또한 사전뿐 아니라 사후적 정기 영향평가도 규정할 수 있도록 하고 영향평가의 실질화를 위해 영향평가 내용을 누적적으로 공개하도록 하는 것이 필요하다고 주장했다. 특히, 공공기관이나 공공분야에 조달되는 인공지능 시스템에 대한 영향평가 결과보고서는 필수적으로 공개할 것을 요구했다. 관계 중앙행정기관의 장은 지침, 표준 마련, 평가기준 등을 위해 필요한 경우 국가인권위원회에 의견 및 협력을 요청할 수 있도록 요구했다.
- 이 외 공공기관의 중복 투자 등을 막기 위해 각 공공기관이 도입하고 있는 인공지능 시스템의 주요 사항을 국가인공지능위원회에 등록하도록 하고, 인공지능 관련 국가 의사결정에 국가기관 및 기업 뿐 아니라 ‘영향받는 자’의 참여를 보장하고 의견을 수렴할 수 있도록 국가인공지능위원회에 영향을 받는 자 또는 이를 대표할 수 있는 사람을 반드시 포함할 것을 요구했다. 또한 『인공지능윤리기준』에는 인공지능의 개발, 인공지능사회 및 인공지능윤리에 관한 국제적 기준에 부합하게 수립하여야 한다는 원칙 규정도 포함시킬 것을 요구했다. 시민사회는 이번 의견서에서 제안한 내용이 반영될 것을 촉구하며 앞으로 과기부가 하위법령안을 입법예고하는 것에 대해서도 적극적으로 의견 표명할 것이라고 밝혔다. 끝.
-