2016년 한국 사회는 구글 딥마인드가 개발한 알파고와 프로 이세돌 기사의 세기적 대결을 목격하면서 최근 인공지능의 발달 상황에 대해 크게 놀랐습니다. 2022년 다양한 생성형 인공지능과 대규모 언어모델 챗GPT의 등장은 한층 더 충격적이었습니다. 생성형 인공지능과 언어모델은 일반 사람들이 직접 체험을 해볼 수 있었기 때문에 그 충격이 더욱 직접적이었습니다.
이미 인공지능은 우리 사회의 여러 분야에 도입이 되어 왔습니다. 인공지능 스피커, 번역 서비스, 배달 플랫폼, 채용 AI, 부정수급 탐지 시스템 등 공공과 민간의 여러 분야에서 인공지능이 활용되고 있습니다.인공지능은 인간의 삶을 더욱 윤택하게 할 것으로 기대를 모으고 있습니다. 그러나 국가인권위원회가 지적하였듯이, 인공지능을 무분별하게 개발·활용할 경우 시민들의 안전과 인권을 위협하고 사회 곳곳에 부정적인 영향을 미칠 수 있습니다. 인공지능이 사람을 대상으로 예측하고 결정을 내릴 때 그 부정적 영향은 치명적일 수 있습니다. 한국의 시민사회단체는 인공지능 기술 발달에 상응하여 그 위험성을 통제하는 규제 체제가 필요하다고 주장해 왔습니다.진보네트워크센터는 진보통신연합 APC의 지원을 받아, 국내외에서 논란이 되고 대안이 모색 중인 인공지능과 정보인권 문제를 알기쉽게 정리하여 소개합니다.
국내에서는 제대로 된 인공지능 규제법이 없습니다. 2023년 2월, 국회 소위안을 통과한 인공지능법안이 있지만, 산업진흥에 중점을 둔 법안입니다. 국내 인공지능 정책을 들여다보니, 역대 정부를 관통하는 키워드는 ‘인공지능 산업진흥과 규제완화’임을 단언할 수 있습니다. 현 정부는 ‘디지털플랫폼정부’를 표방하고 있으며 인공지능을 기반으로 흩어져 있는 정보를 하나의 플랫폼으로 통합해 활용하는데 초점이 맞춰져 있습니다. 인공지능 윤리규범과 자율규제로 인공지능의 위험을 방지할 수 있을까요? 이에, 국내 인공지능 규제 동향을 살펴보았습니다.
들어가며
- 2023년 5월, 딥러닝의 선구자인 제프리 힌튼(Geoffrey Hinton) 교수는 구글을 퇴사하며 인공지능의 발전으로 위험성이 증가하고 있다고 경고한 바 있음. 딥러닝의 어머니로 불리는 페이 페이 리(Fei-Fei Li) 또한 생성형 인공지능을 “인공지능의 위대한 변곡점”이라고 언급하며, 인공지능의 기회를 온전히 실현하기 위해선 위험도를 평가해야 한다고 강조함. 특히, 인공지능의 악의적 사용을 막기 위해 취약계층에게 주의를 기울일 것을 강조하고 있음.
- 세계적으로 안전과 인권적 측면에서 인공지능의 위험성과 관련된 여러 문제들이 지적되어 왔으며, 국내상황 역시 이와 다르지 않음.
- 2020년 스타트업 스캐터랩이 서비스한 인공지능 챗봇 ‘이루다’의 혐오발언과 차별 메시지 전송, 개인정보 침해 등이 논란이 되면서 인공지능 위험성이 크게 논란이 된 바 있음.
- 법무부와 과기정통부가 2019년부터 추진해온 ‘인공지능 식별추적시스템 구축사업’은 법무부가 출입국심사 과정에서 수집·보유하고 있는 내외국인 개인정보 및 얼굴인식 데이터 약 1억 7천만 건을 정보주체 동의 없이 민간기업들에게 인공지능 학습 및 알고리즘 검증용으로 제공하여 논란이 된 바 있음.
- 인공지능은 사회전반적으로 다양한 분야에서 광범위하게 적용되고 있으며 위험과 기회라는 양면적인 성격을 지니고 있음.
- 인공지능의 예측할 수 없는 위험이 발생할 수 있음에도, 국내 인공지능 정책은 인공지능 산업의 육성에 초점을 맞춰왔을 뿐, 그 위험성을 통제하기 위한 법안의 마련은 지체되어 왔음. 2023년 11월 현재 인공지능 산업육성에 중점을 둔 ‘인공지능법안’이 국회 과학기술정보방송통신위원회 법안심사소위원회에 계류 중임.
- 국내 인공지능 규제에 관한 동향을 파악하기 위해서 국내 인공지능 정책의 흐름과 2023년 2월, 국회 상임위원회 소위원회에서 논의된 인공지능법안을 살펴보고자 함.
국내 인공지능 정책 개요
- (박근혜정부) 국내 인공지능 정책의 시초는 2016년 박근혜 정부 시기 ‘제4차 산업혁명에 대응한 「지능정보사회 중장기 종합대책」으로 거슬러 올라가 볼 수 있음. 종합대책은 ‘지능정보기술’이 다양한 기술 및 산업과 융합하여 생산성과 효율성을 높이는 핵심 역할을 하고, 기존 제조업과 서비스 중심의 산업구조를 재편시키며, 일자리 및 업무 등 삶 전반에 변화를 야기시한다고 분석함.
- (문재인 정부) 문재인 정부는 ‘4차산업혁명위원회를 출범시키고 (’17.11.), 2019년 12월 경제 활력 제고 및 사회문제 해결의 강력한 방안으로 인공지능(AI)을 중점에 둔 범 국가적인 전략으로 「인공지능 국가전략」을 수립함. 특히, DNA(Data·Network·AI)를 핵심동력으로 삼아 분야별 대책을 발표함.
- 대통령 ‘인공지능(AI) 기본구상’ 발표(’19.10.)를 통해 인공지능에 대한 국민적 관심을 환기시키고 국가적 역량을 총결집하고자 하였음.
- (기술) 과거 개별적으로 발전해온 네트워크와 빅데이터를 기반으로 한 딥러닝이 등장하면서 인공지능 기술이 가속화됨. (산업) 인공지능은 그 자체로 막대한 부가가치 창출 신산업이자 기존 산업의 경쟁구도를 근본적으로 바꾸는 원천임. (사회·삶) 직무변화 및 일자리 이동이 가속화됨.
- (윤석열 정부) 윤석열 정부는 ‘디지털플랫폼정부’를 표방하며 뉴욕구상(’22.9.)를 시작으로 그 후속조치로 디지털플랫폼 실현계획(디지털정부위원회), 초거대 인공지능 경쟁력 강화방안(과기정통부), 데이터 혁신을 위한 국민신뢰 확보방안(개인정보보호위원회), 전국민 인공지능 일상화 전략 등을 발표함.
-
- ‘디지털플랫폼정부’는 인공지능을 기반으로 흩어져있는 데이터와 정보를 하나의 플랫폼에 통합하고 맞춤형으로 서비스하는 정부라고 밝히고 있음.
-
[그림] 국내 인공지능 정책 흐름
박근혜 정부의 인공지능 정책
빅데이터 산업발전을 위한 ‘개인정보의 목적외 활용’ 법제
- 2010년대 이후 국내 기업들은 빅데이터 산업 발전을 위해 개인정보 규제를 완화해 달라고 요구해왔음. 즉,빅데이터 분석을 위해 기존에 다른 목적(통신, 의료 등 서비스 제공 등)으로 수집된 개인정보를 목적외로 활용할 수 있도록 해달라는 것임. 이에 개인정보의 목적외 활용을 합리화하기 위한 방안으로, 2016년 박근혜 정부에서는 개인정보의 목적외 활용을 합리화하기 위한 방안으로 <개인정보 비식별 조치 가이드라인>을 발표한 바 있음.
- 가이드라인은 기술적인 비식별 조치를 취하고 평가단이 비식별 조치의 적정성을 판단하도록 함. 평가단이 적정하다고 판단하면 개인정보가 아닌 것으로 추정되므로 해당 개인정보를 수집 목적 외로 처리하거나 제3자에게 제공할 수 있음.
- 그러나 개인정보를 비식별 조치한 결과가 개인정보가 아닌 익명정보라고 단언하기는 어려움. 비식별 조치가 제대로 이루어지지 않을 경우 개인정보의 목적외 활용으로 개인정보보호법 위반인데, 책임을 누가 질 것인지에 대해 규정하지 않고 있음. 더구나 가이드라인은 정보집합물의 결합을 통해 두 기업이 고객정보를 공유할 수 있도록 허용하고 있음. 서로 다른 정보집합물을 결합하게 되면 개인이 식별될 위험성은 더욱 높아짐.
- 문재인 정부에서 <대통령직속 4차산업혁명위원회>가 주관하는 ‘규제, 제도혁신 해커톤’이라는 행사를 개최함. 2018년 초, ‘개인정보의 보호와 활용’에 관한 해커톤 행사가 열림.
- 해커톤 참가자들은 개인정보 관련 법적 개념의 체계를 개인정보, 가명정보, 익명정보로 구분하는 것에 합의함. 그러나 상업적 연구 목적으로 가명정보를 활용하는 것에 대해서는 합의에 이르지 못하였음.
- 정부는 산업계의 의견을 수용하여 소위 ‘데이터 3법’을 발의하였음. 데이터3법은 개인정보보호법, 정보통신망법(정보통신망 이용촉진 및 정보보호 등에 관한 법률), 신용정보법(신용정보의 이용 및 보호에 관한 법률)을 의미함.
- 가명처리는 “개인정보의 일부를 삭제하거나 일부 또는 전부를 대체하는 등의 방법으로 추가정보가 없이는 특정 개인을 알아볼 수 없도록 처리하는 것”으로 재식별이 가능하기 때문에 개인정보로 규정됨.
- 시민사회는 정보주체의 권리를 침해한다는 의미에서 ‘개인정보도둑법’이라고 불렀음.
- 데이터3법은 2020년 1월 9일, 국회 본회의를 통과함.
지능정보사회 중장기 종합대책
- 국내 인공지능 정책의 시초는 2016년 박근혜 정부 시기 ‘제4차 산업혁명에 대응한 「지능정보사회 중장기 종합대책」으로 거슬러 올라가 볼 수 있음. ‘지능정보기술’은 다양한 기술 및 산업과 융합하여 생산성과 효율성을 높이는 핵심 역할을 하고, 기존 제조업과 서비스 중심의 산업구조를 재편시키며, 일자리 및 업무 등 삶 전반에 변화를 야기한다고 평가.
- 지능정보사회 중장기 종합대책(‘16.12.)의 국가비전은 “인간중심 지능정보사회 실현”으로 정책과제는 ①글로벌 수준의 지능정보기술 기반을 확보 ②전 산업의 지능정보화를 촉진 ③사회정책 개선을 통한 선제적 대응을 추진함.
- 법·제도 미비로 인한 지능정보기술 사업의 지연을 방지하기 위한 임시허가 제도를 보완하고 규제 샌드박스를 도입함.
[그림] 지능정보기술과 타 산업·기술의 융합 예시
문재인 정부의 인공지능 정책
2019년 12월 17일, <인공지능(AI)국가전략>발표
- 문재인 정부는 과기정통부를 비롯한 전 부처 공동으로 ‘IT 강국을 넘어 AI 강국으로!(AI for Everyone, AI of Everything)’을 비전으로 한 <인공지능(AI) 국가전략>을 발표함.
- <인공지능(AI) 국가전략>은 3대 분야와 9대 전략, 100대 실행과제로 이루어져 있음.
- 1.세계를 선도하는 인공지능 생태계 구축 (전략 ①인프라확충 ②전략적 기술개발 ③과감한 규제혁신 ④스타트업 육성) 2.인공지능을 가장 잘 활용하는 나라 (전략 ⑤인재양성 국민교육 ⑥전 산업 인공지능 도입 ⑦디지털정부 대전환) 3.사람 중심의 인공지능 구현(전략 ⑧포용적 일자리 안전망 구축 ⑨역기능 방지 및 인공지능 윤리 마련)
- ‘전략③’ 과감한 규제혁신에서는 규제 패러다임을 근본적으로 개선하겠다며 신산업·신기술 ‘우선허용-사후규제’를 기본 방향으로 삼고 있음.
- (인공지능 등)신기술이 국민의 생명과 안전에 저해되지 않을 경우, 기존 법령이나 규제에도 불구하고, 시장에 출시할 수 있도록 지원하겠다고 밝힘.
[그림] 핵심전략 및 목표 (2030)
2020년 6월 9일, 「국가정보화 기본법」을 「지능정보화법」으로 전부 개정
- 1995년 제정된 「정보화촉진기본법」이후, 국가적으로 4차산업혁명을 이끌기 위해 「국가정보화 기본법」(‘18)을 제정하였으며, 2020년 12월 10일 앞의 기본법을 전부 개정하고 제명한 「지능정보화 기본법」(이하 지능정보화법)이 시행됨.
- ‘데이터’, ‘알고리즘’,‘지능정보기술’, ‘초연결지능정보통신망’ 등의 주요 개념을 규정하고, 인공지능 기술의 위험성에 대비하기 위한 비상정지와 로그기록의 저장 등에 관한 사항이 신설됨.
- 「지능정보화법」으로 개정한 것은 적극적으로 기존의 기본정책을 확장하여 사회 전반의 변화와 대응을 위한 종합적인 국가전략으로 변화시키려는 목적임. 그러나, 지능정보사회의 변화에 대응할 수 있는 추진체계 즉, 위원회가 없다는 한계가 존재했고, 지능정보기술에 따른 경제, 노동, 교육, 복지 등 모든 영역이 변화하고 있음에도 여전히 정보통신산업의 진흥을 위한 위원회의 하위분야로서 다뤄졌다는 평가가 있음
2020년 12월 23일, <인공지능(AI) 윤리기준> 발표
- 과기정통부는 2020년 12월 23일, 사람이 중심이 되는 ‘인공지능(AI) 윤리기준’을 마련함. 바람직한 인공지능 개발·활용 방향을 제시하기 위한 것으로 ‘인간성(Humanity)을 위한 인공지능(AI)’의 3대 기본원칙과 10대 핵심요건을 제시함.
- 지난 「인공지능 국가전략(’19.12.)」의 주요 과제로 ‘인공지능 윤리기준’ 마련을 추진해왔음.
- 3대 기본원칙 : 1.인간의 존엄성 원칙 2.사회의 공공선 원칙 3.기술의 합목적성 원칙
- 10대 핵심요건 : ①인권 보장 ②프라이버시 보호 ③다양성 존중 ④침해금지 ⑤공공성 ⑥연대성 ⑦데이터 관리 ⑧책임성 ⑨안전성 ⑩투명성
- 정부는 인공지능 윤리기준은 “구속력 있는 ’법‘이나 ’지침‘이 아닌 “도덕적 규범이자 자율규범“임을 명시함. 기업의 자율성을 존중하고 인공지능 기술발전을 장려하고 있음.
2020년 12월 24일, 인공지능 법·제도·규제 정비 로드맵
- 과기정통부와 국무조정실은 2020년 12월 24일, ‘국정현안점검조정회의’에서 인공지능 법·제도·규제 정비 로드맵을 확정 발표하고, 인공지능 시대를 준비해 나가기 위한 법적기반을 마련할 것을 밝힘.
- 당시 국내 동향을 살펴보면, 인공지능 시대의 기본법제로서 지능정보기술 개발 및 산업진흥을 위한 지능정보화 기본법(‘20.12.)이 마련되었으며, 인공지능 데이터 경제활성화와 활용촉진을 위한 데이터3법(개인정보보호법, 정보통신망법, 신용정보법) 개정(‘20.8.), 그리고 의료, 금융 등 개별 영역별 법령 제개정이 있었음.
- 정부는 로드맵에서 인공지능 활용 촉진과 부작용을 최소화하기 위한 목적으로 30개 과제를 제시함.
- 인공지능 산업에 걸림돌이 없도록 규제 샌드박스 운영, 포괄적 네거티브 전환, 선제적 규제혁신 로드맵 등에 집중되었음.
[그림] 인공지능 법·제도·규제 정비 로드맵
2021년 5월 13일, <신뢰할 수 있는 인공지능 실현전략>발표
- 2021년 5월 13일, 과기정통부는 <신뢰할 수 있는 인공지능 실현전략>을 발표함. ‘누구나 실현할 수 있는 인공지능, 모두가 누릴 수 있는 인공지능 구현’을 비전으로 기술·제도·윤리 측면의 3대 전략과 10대 실행과제를 통해 2025년까지 단계적으로 추진한다고 밝힘. 「인공지능 국가전략」(’19.12.)과 「인공지능 윤리기준」(’20.12.)을 토대로 수립되었으며, 인공지능에 대한 부정적 영향에 대응하기 위해 마련함.
- 3대 전략 : 1.신뢰 가능한 인공지능 구현 환경 조성 2.안전한 인공지능 활용을 위한 기반 마련 3.사회 전반의 건전한 인공지능 의식 확산
- 실행과제 : ①인공지능 제품·서비스 구현단계별 신뢰 확보 체계 마련 ②민간 신뢰성 확보 지원 ③인공지능 신뢰성 원천 기술 개발 ④학습용 데이터의 신뢰성 제고 ⑤고위험 인공지능의 신뢰 확보 ⑥인공지능 영향평가의 추진 ⑦신뢰 강화 제도 개선 ⑧인공지능 윤리 교육 강화 ⑨주제별 체크리스트 마련 ⑩인공지능 윤리정책 플랫폼 운영
[그림] 비전 및 목표
<표-1> 인공지능 신뢰성의 주요 핵심요소 및 의미
2021년 5월 31일, <인공지능 개인정보보호 자율점검표> 발표
- 2021년 5월 31일, 개인정보보호위원회는 <인공지능 개인정보보호 자율점검표(개발자‧운영자용)>를 발표함. 인공지능 기술이 적용된 서비스가 도입되고 확산되면서 개인정보침해 등 다양한 사회적 문제가 발생할 우려가 커짐. 인공지능 개발자·운영자의 개인정보보호에 대한 인식을 높이고 개인정보보호를 자율적으로 실천하는데 필요한 자율점검표를 마련함.
- 인공지능 개인정보보호 6대 원칙으로 적법성, 안전성,투명성, 참여성, 책임성,공정성을 제시하였으며, 자율점검표는 단계별 혹은 상시로 법령상 준수해야할 의무 또는 권장사항에 대한 점검항목 16개, 확인사항 54개로 구성됨.
- 인공지능의 설계, 개발, 운영 과정에서 개인정보를 처리할 때 유의해야 할 사항을 스스로 자율점검할 수 있도록 의무 혹은 권장사항으로 나누어 단계별로 안내함.
[그림] 개인정보보호 6대 원칙
2022년 5월 11일, 국가인권위원회 <인공지능 개발과 활용에 관한 인권 가이드라인> 권고 및 인공지능 정책에 대한 의견 표명
- 국가인권위원회는 2022년 5월 <인공지능 개발과 활용에 관한 인권 가이드라인>을 국무총리와 관련 부처 장관에게 권고함.
- 2022년 10월 21일, 〈인공지능 개발과 활용에 관한 인권 가이드라인〉 권고를 국무총리 및 관련 부처 장관·기관장이 수용함.
- 국가인권위원회의 입법 권고는 개인의 인권과 안전에 미치는 위험성별로 걸맞은 수준의 규제와 인적 개입, 인공지능을 독립적이고 효과적으로 감독할 수 있는 체계 수립, 인공지능 때문에 피해를 입은 사람이 권리구제를 받을 수 있는 기회를 제공할 것 등을 요구함.
- 주요 내용 : (1) 인간의 존엄성 및 개인의 자율성과 다양성 보장 (2) 투명성과 설명 의무 (3) 자기결정권의 보장 (4) 차별금지 (5) 인공지능 인권영향평가 시행 (6) 위험도 등급 및 관련 법, 제도 마련 등
- 2023년 1월 12일에는 얼굴인식 기술로 인한 인권침해에 적극적으로 대응이 필요함을 국회의장과 국무총리에게 의견표명 및 권고를 함.
- 국가에 의한 얼굴인식 기술 도입·활용 시 인권을 존중해야하며, 무분별한 도입과 활용은 제한하고 반드시 개별적·구체적 법률에 근거해야 함을 밝히고 있음. 공공장소에서 불특정 다수를 대상으로 실시간 원격 얼굴인식 기술의 도입·활용은 금지해야 함을 강조함. 얼굴인식 기술 개발 및 활용 전에 인권영향평가를 실시하고, 인권 전문성과 독립성을 확보한 기관이 인권영향평가를 담당하도록 할 것을 권고하고 있음.
- 국가인권위원회는 공공기관과 민간기업에서 인공지능 인권영향평가를 실제로 실행할 수 있도록 지원하기 위해 관련 모델을 개발 중에 있음.
- 2023년 2월, <인공지능 인권영향평가 도입 방안 연구> (보고서)
윤석열 정부의 인공지능 정책
2022년 9월 28일, 관계부처 합동 「디지털 전략」& 12월 21일, 「新성장 4.0 전략」발표
- 윤석열 정부는 국가 디지털정책 종합 계획인 대한민국 「디지털 전략」, 「新성장 4.0 전략」 등을 통해 전분야 인공지능 융합·확산을 중요 전략과제로 채택함. 대통령의 뉴욕구상 기조를 반영하고 이를 구체적으로 실현하기 위한 정부의 역할을 정책의 수단으로 구현함.
- 디지털 전환에 본격 대응하는 디지털 종합전략으로 전 분야에 아우르는 정책방향을 제시함. ①세계 최고의 디지털 역량 ②확장되는 디지털 경제 ③포용하는 디지털 사회 ④함께하는 디지털플랫폼정부 ⑤혁신하는 디지털문화 전략을 목표로 하고 있음.
- 「新성장 4.0 전략」(‘22.12.)에서는 국정과제 연관성, 전문가 의견 등 종합적으로 의견을 고려하여 3대 국가적 도전과제 해결을 위한 15대 프로젝트를 발굴하고 추진함. ‘Digital Everywhere(新 일상)’를 3대 전략분야 중 하나로 채택, 삶과 일터에서의 인공지능 활용 확대를 목표로 함.
- 과학기술정보통신부는 앞서 언급한 전략들의 인공지능 분야 후속 실행계획인 ‘인공지능 일상화 및 산업 고도화 계획(안)’(‘23. 1.), 그리고 ‘초거대AI 경쟁력 강화방안’(‘23. 4.), 전국민 AI 일상화 계획(‘23. 9.)을 통해 전국민·전산업으로의 인공지능 확산도모를 위한 전략을 발표함.
2023년 1월 26일, 「인공지능 일상화 및 산업고도화 계획」
- ‘제2차 국가데이터정책위원회’에서 「대한민국 디지털전략」과 「신성장4.0전략」의 후속조치에 대해 본격적으로 논의함. 국민과 디지털 혜택을 공유하고, 대규모 인공지능 수요창출, 산업혁신을 위한 인공지능 프로젝트를 추진한다고 밝힘.
<표-2> 인공지능 일상화 및 산업고도화 계획의 주요 내용
2023년 4월 14일, 「디지털플랫폼정부 실현계획」,「초거대 AI경쟁력강화방안」,「데이터 혁신을 위한 국민신뢰 확보방안」발표
- 대통령 직속 디지털플랫폼정부위원회는 2023년 4월 14일, 과학기술정보통신부, 개인정보보호위원회와 함께 ‘디지털플랫폼정부 실현계획 보고회’를 개최함.
- 모든 데이터가 연결되는 ‘디지털플랫폼’ 위에서 국민·기업·정부가 함께 사회문제를 해결하고 새로운 가치를 창출하는 정부(국정과제 11)를 실현하고자 한다고 밝힘.
- 디지털플랫폼정부위원회의 「디지털플랫폼정부 실현계획」, 과기정통부의 「초거대 AI 경쟁력 강화방안」, 개인정보보호위원회의「데이터 혁신을 위한 국민신뢰 확보방안」을 발표함.
- 디지털플랫폼정부위원회 「디지털플랫폼정부 실현계획」
- 디지털플랫폼정부 실현을 위한 4대 추진과제는 인공지능을 기반으로 각 부처의 흩어져있는 정보를 하나의 플랫폼에서 국민이 활용할 수 있도록 하는 것을 의미함.
- 4대 추진과제로 ①오직 국민을 위한 정부 ②똑똑한 원팀 정부 ③민관이 함께하는 성장 플랫폼 ④믿고 안심할 수 있는 플랫폼 정부를 제시함.
- 개인정보보호위원회 「데이터 혁신을 위한 국민신뢰 확보방안」
- 디지털플랫폼정부가 성공적으로 안착하고 초거대 인공지능시대를 견인해 나가기 위해서는 국민의 신뢰가 전제되어야 한다는 점을 강조함.
- 초거대 AI 시대, 국민이 안심할 수 있는 보호원칙과 데이터 처리기준 제시
- 「개인정보보호법」개정으로 인공지능을 활용한 채용 면접 등 개인의 권리에 많은 영향을 미치는 경우, 그 결정을 거부하거나 설명을 요구할 수 있는 권리 시행(‘24.3.). 국민이 어떠한 절차와 방법으로 거부나 설명을 요구할 수 있는지, 어떻게 조치해야 하는지 등을 구체화해 나갈 계획이라고 밝힘.
- 과학기술정보통신위원회 「초거대 AI 경쟁력 강화 방안」
- 국내의 독자적 초거대 인공지능 플랫폼을 바탕으로 세계 선두권 경쟁에 합류하고 기업지원을 강화하여 초거대 인공지능 경쟁력 확보 및 미래 수출 전략산업화를 이루고자 함.
- 「인공지능 석학과의 대화」(‘22.9.) → 「대한민국 디지털 전략」(‘22.9.) → 「AI일상화 및 산업 고도화 계획 발표」(‘23.1.) → 「AI최고위 전략대화」 등 초거대 인공지능 대응 민간 릴레이 간담회(‘23.1~3.) 등의 과정을 통해 수립됨.
- ①초거대 인공지능 기술·산업인프라 확충 ②초거대 인공지능 혁신 생태계 조성 ③범국가 인공지능 혁신 제도·문화 정착 등 3대 추진과제 설정.
<표-3> 초거대 AI 경쟁력 강화방안 추진전략 세부 내용
-
- 향후, 사회적 변화 대응 및 수용력 향상을 위한 추진체계 구성과 신규 프로젝트 세부기획 및 예산 반영 협의에 나설 방침이라고 밝히고 있음. ①인공지능 윤리포럼, ②인공지능 법제정비단, ③초거대 인공지능 대응
2023년 8월, 개인정보보호위원회 「인공지능 시대 안전한 개인정보 활용 정책방향」발표
- 개인정보보호위원회는 2023년 8월, 「인공지능 시대 안전한 개인정보 활용 정책방향」 발표하며, 민·관 협력을 통한 분야별 가이드라인을 구축하고자 함.
- 추진과제로 ①불확실성 해소를 위한 원칙 기반 규율 추진체계 정립 ②인공지능 개발·서비스 단계별 개인정보 처리기준 구체화 ③민·관 협력을 통한 분야별 가이드라인 마련 ④ 국제적 공조체계 강화를 밝히고 있음.
[그림] 인공지능시대 안전한 개인정보 활용의 주요 추진과제
2023년 9월 14일, 과기정통부 「전국민 인공지능 일상화 계획」발표
- 과기정통부는 인공지능 산업을 육성하기 위해 국가 전방위적으로 인공지능을 확산하는 전국민 인공지능 일상화 실행계획을 추진함.
- 관계부처와 함께 국민일상, 산업현장, 공공행정 등에 9,090억 원(‘24.)투입함.
- 인공지능 일상화로 변화하는 삶, 4가지 추진계획을 다음과 같이 밝힘 : ①국민의 일상을 풍요롭게 함 ②산업일터를 혁신 ③똑똑한 공공행정을 구현 ④인공지능 일상화 기반을 선제적으로 조성
[그림] 전국민 인공지능 일상화 실행계획 과제
2023년 10월 25일, 과기정통부 「인공지능 윤리·신뢰성 확보 추진계획」발표
- 과기정통부는 국가 인공지능 경쟁력 강화를 명분으로 ‘인공지능 최고위 전략대화’라는 이름으로민·관이 함께 논의하는 인공지능 대표급 협의체를 운영함. 2023.10.25. ‘제4차 인공지능 최고위 전략대화’ 개최를 통해 ‘인공지능 윤리·신뢰성 확보 추진 계획’을 발표함(1차/ ’21.9, 2차/ ’22.2, 3차/ ‘23.3.).
- 2023년 9월 「대한민국 초거대 인공지능 도약」 행사에서 기업들이 인공지능 신뢰성 강화를 위해 필요한 안전조치를 자발적으로 마련하겠다고 약속했던 선언의 후속으로 마련된 것임.
- 추진계획으로는 민간 자율 인공지능 윤리·신뢰성 확보 지원, 세계를 선도하는 인공지능 윤리·신뢰성 기술·제도적 기반 마련, 사회 전반 책임 있는 인공지능 의식 확산을 추진하고 있음.
- 「국가 인공지능 윤리기준」의 구체적 실천수단으로 채용, 생성형 인공지능 기반 서비스 등 분야별 가이드라인을 마련·확대하고 민간 자율 신뢰성 검·인증을 11월부터 추진할 계획이라고 밝힘.
- 이는 미국식 인공지능(AI) 자율규제안이라는 평가임. 정부 주도 하에 업체들이 자율규제안을 내놓는 방식으로, 산업 육성에 무게를 둔 방식임. 11월에 ‘자율규제 가이드라인’을 발표하고 인공지능 생성물에 워터마크 삽입 등을 포함할 예정임.
국내 인공지능 정책의 주요 부처별 동향
개인정보보호위원회
- 2023년 10월
- 「인공지능 프라이버시 민·관 정책협의회」 출범
- 「인공지능 시대 안전한 개인정보 활용 정책방향」 후속조치의 일환. 「인공지능유형별 사안별 리스크 평가기준 모델」을 마련 예정
- 2023년 8월
- 「인공지능 시대 안전한 개인정보 활용 정책방향」 발표하며, 민·관 협력을 통한 분야별 가이드라인 마련하고자 함
- 2023년 6월
- ‘인공지능과 데이터 프라이버시 국제 컨퍼런스’개최
- ①인공지능(AI) 서비스 제공자에 대한 안전장치 제공과 ②규정 중심(rule-based)에서 원칙 중심(principle-based)으로 규제 패러다임 전환 및 ③인공지능(AI)의 리스크 기준으로 차등적인 규제 도입을 담은 세 가지 주요 정책 방향을 제시함
- 2021년 5월
- 인공지능(AI) 개인정보보호 <자율점검표(개발자·운영자용> 발표함(2021.5.제정)
- 2021.7. 영문판 발간
과학기술정보통신부
- 2023년 10월
- 2023년 9월
- 「전국민 인공지능 일상화 계획」 발표
- ‘디지털 권리장전’ 발표
- 2023년 8월
- 2023년 4월
- 2023년 1월
- 2022년 12월
- 2022년 9월,
- 2022년 2월
- 인공지능의 윤리적 개발과 활용을 촉진하기 위한 인공지능 윤리 정책 포럼 개최.
- 인공지능 윤리 자율점검표 및 신뢰할 수 있는 인공지능 개발안내서를 공개함.
- 2021년 5월
- 2020년 12월
- <인공지능 윤리기준> 발표.
- 2019년 12월
- <인공지능(AI) 국가전략>발표 (관계부처합동)
방송통신위원회
- 2023년 6월
- 2020년부터 민관협의회를 구성·운영
- 「생성형 인공지능 모델의 책무성 관련 이용자 보호 쟁점」 논의
- (2023. 5) 생성형(Generative) 인공지능(AI) 기반 챗봇 서비스에서의 이용자 보호 쟁점 논의
- 2022년 4월
- 「인공지능 기반 미디어 추천 서비스 이용자 보호 기본원칙」 해설서를 발간
- 2021년 6월
국가인권위원회
인공지능 법안
- 국내 인공지능법안은 7개의 인공지능법안(이상민안, 양향자안, 민형배안, 정필모안, 이용빈안, 윤영찬안, 윤두현안)이 병합되어 2023년 2월 국회 과학기술정보방송통신위원회 법안심사소위원회에서 「인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안(이하 소위안)」이 의결되었음.
- 인권시민단체들은 소위안에 대하여 반대 의견을 제출함.
인권시민사회 의견
- 인권시민사회는 소위안이 국제인권규범 및 해외 입법정책에 비추어보았을 때 소관부처의 적절성, 안전과 인권에 미치는 인공지능 위험 규제의 효과 측면에서 중대한 문제가 있다고 비판하며, 국회 차원의 전면 재검토를 요구함.
- 소위안은 인공지능 산업진흥에 대한 기본법과 중복됨.
- 소위안은 다른 법률과의 관계등에서 기본법으로 지위를 규정하고 있음. 그런데 인공지능기술과 산업에 대한 기본법으로는 같은 부처 소관으로 「지능정보화기본법」이 이미 시행 중임. 소위안은 이미 시행 중인 지능정보화 기본법의 목적과 소관하는 내용 대부분이 유사하거나 중복됨.
- 과학기술정보통신부가 인공지능과 사회정책 일반을 소관하는 것에 반대함
- 소위안에 따르면, 과학기술정보통신부는 인공지능윤리 및 신뢰성과 관련한 법령의 정비 등 제도 개선 업무를 독자적으로 수행할 수 있으며, 중앙행정기관과 지방자치단체의 관련 법령, 기준, 지침, 가이드라인에 대하여 판단하고 권고할 수 있는 막대한 권한을 부여받고 있는데, 산업진흥을 중심으로 한 과기정통부가 이러한 역할을 할 경우 인권과 안전 등의 가치가 무시될 위험이 있음.
- 안전과 인권을 보호하기 위한 다른 법률의 정당한 조치와 다른 규제기관의 업무를 침범하는 사후규제 독소조항에 반대함
- 소위안은 인공지능의 위험성에 대한 효과적인 감독과 피해 구제를 규정하지 않았을 뿐더러, 우선허용·사후규제 원칙으로 위해가 있을 수 있는 인공지능을 시장에 우선적으로 출시할 수 있도록 하고 있음.
- 과학기술정보통신부가 운영하는 인공지능위원회의 결정이 다른 규제기관의 작용을 방해할 우려가 있음.
- 과기정통부가 운영하는 인공지능위원회는 인공지능의 위험에 대응하는 독립적인 규제기관의 작용과 별도로 이들의 업무와 중복적인 사안을 다루면서 이들과 다른 비전문적인 의사결정을 내릴 위험이 있음.
- 고위험 인공지능의 정의가 자의적이며 부분적임
- “채용, 대출 심사 등 개인의 권리‧의무 관계에 중대한 영향을 미치는 판단 또는 평가 목적의 인공지능”을 고위험으로 규정하였으나, ‘중대한 영향’이 무엇인지 명확히 규정하지 않았으며, ‘채용, 대출 심사’ 등 매우 자의적이고 제한적인 예시 규정을 두고 있음. 많은 인권 침해 분야를 고위험에서 제외함.
- 고위험 인공지능 규제가 형식적이어서 실질적인 위험방지 장치를 갖추지 못함
- 고위험 인공지능의 시판 및 이용을 방지하기 위하여 더 이상 구체적인 위험 방지 조치의 내용이나 준수 사항을 규정하는 바가 없음. 특히, 인공지능 위험성에서 가장 논란이 되고 있는 데이터 편향이나 오류를 방지할 의무를 규정하고 있지 않음.
국가인권위원회의 의견
- 2023년 8월 21일, 국회의장에게 국회 논의 중인 「인공지능 법률안」에 인권침해·차별 문제를 예방·규제할 수 있는 규정 마련이 필요하다고 의견 표명함.
- 특히, 고위험 인공지능의 경우에는 인공지능 감독·규제 기관이 인공지능 알고리즘의 투명성, 설명가능성, 인권침해·차별 예방조치 여부 등을 사전에 엄격하게 점검하도록 함. 또한, 고위험 인공지능 활용 중에 문제가 발생할 경우 인공지능 감독·규제기관이 사용중지 등 적정한 조치를 취할 수 있도록 함.
인공지능 법안 외에 기타 인공지능 관련 내용을 포함한 법안
<표- 5> 국내 인공지능 법안 현황
나가며
- 국내 인공지능 정책의 시초라고 볼 수 있는 2016년 박근혜 정부 ‘제4차 산업혁명에 대응한 「지능정보사회 중장기 종합대책」를 시작으로 2019년 12월, 문재인정부에서의 ‘인공지능 국가전략’를 거쳐 2023년 9월, 윤석열정부의 ‘전국민 인공지능 일상화 전략’에 이르기까지 관통화는 키워드는 법제도가 걸림돌로 작용하지 않도록 인공지능 ‘산업육성’을 위한 ‘규제완화’임.
- 박근혜 정부에서는 인공지능 자체에 초점을 두지는 않았지만, 그 기반이 되는 빅데이터 이용 활성화를 위한 비식별조치 가이드라인을 만들었고, 신기술을 ‘지능정보기술’로 통칭하면서 산업 육성을 위한 종합 대책을 제시하였음.
- 문재인 정부는 대통령의 ‘인공지능(AI) 기본구상’ 발표(’19.10.)를 통해 인공지능에 대한 국가적 역량을 결집하고자 하였음. 주요내용은 인공지능 인프라 확충, 인공지능 기술경쟁력 확보, 사전허용-사후규제의 방향으로 포괄적 네거티브 규제 로드맵 등 내용을 담고 있음.
- 윤석열 정부는 ‘디지털플랫폼정부’를 표방하며 대한민국 디지털 전략(‘22.9.), 초거대 인공지능 경쟁력 강화 방안(‘23.4.), 전국민 인공지능 일상화 계획(‘23.9.) 등을 발표함. 인공지능을 기반으로 흩어져있는 데이터와 정보를 하나의 플랫폼에 통합하고 공유하여 맞춤형 서비스를 할 수 있도록 중점을 두고 있음.
- 2023년 10월 25일, 과기정통부와 개인정보보호위 등은 ‘제4차 인공지능 최고위 전략대화’에서 자율규제에 대한 기본안을 마련함. 법적 규제보다는 기업의 자율적 규제를 중심으로 하는 미국식 자율규제에 가까움.
- 그나마 국가인권위원회와 개인정보보호위원회는 인공지능 도입 과정에서 개인정보 보호를 비롯한 인권이 침해되지 않도록 가이드라인을 제시하는 등 안전장치를 마련하기 위해 노력하였음.
- 국가인권위원회는 2022년 5월 11일 인공지능 개발 및 활용 과정에서 발생할 수 있는 인권침해와 차별을 방지하기 위하여 〈인공지능 개발과 활용에 관한 인권 가이드라인〉을 마련함. 국가인권위의 의견표명이나 권고는 구속력이 없어서 한계가 있으나, 인공지능이 사회 전반에 걸쳐 인간의 기본적인 삶과 인권에 영향을 미치고 있고, 그 영향을 받는 당사자들은 인공지능에 의해 인권침해나 차별이 발생한 경우에도 권리구제를 받을 수 있는 절차와 방법이 미흡한 상황임을 비판하고, 인공지능 규제의 방향성을 제시했다는 의미가 있음.
- 개인정보보호위원회는 2021년 인공지능 개발 과정에서의 개인정보보호법 준수를 위한 ‘자율점검표’를 만들어 발표하였고, 2023년 8월에는 「인공지능 시대 안전한 개인정보 활용 정책방향」을 발표하였음. 최근에는 인공지능 시대 ‘개인정보보호 사전적정성 검토제’를 운영한다고 밝힌 바 있음. 사전적정성 검토제는 인공지능을 포함 신서비스·신기술 분야에서 개인정보보호법을 준수하는 방안을 마련해 사업자가 적용하면 추후 변경이 없는 한 행정처분을 하지 않는 제도임.
- 생성형 인공지능 등 인공지능의 성장과 함께 차별과 편향, 불투명성, 고도화된 감시 등 인공지능이 야기하는 문제점도 확대될 것으로 예상됨. 이에 국내외 시민사회는 인공지능이 야기하는 위험에 대하여 사전에 식별하고 위험을 완화하기 위한 법·제도적인 장치를 마련해야 한다고 주장해왔음.
- 그럼에도, 아직 한국에서는 인공지능 위험에 대한 인권침해 예방과 피해구제 제도가 전무한 실정임. 인공지능 산업진흥을 저해한다는 이유로 인공지능을 제대로 규제할 수 있는 법제도의 마련이 지체되어 왔음.
- 국회 소위안을 통과한 인공지능법안은 국내외 기준이 요구되는 수준을 충족하지 못함. 광범위한 규제 완화와 과학기술정보통신부의 무리한 소관 규정들로 인하여 오히려 국민의 안전과 인권을 큰 위험에 처하게 함.
- 공공과 민간의 중요한 조치나 의사결정에 사용될 인공지능시스템의 개발이나 활용에 있어, 그 위험에 대하여 사전 영향평가, 사후 모니터링, 문서화, 데이터 편향·오류 방지, 설명가능성, 인간의 관리감독, 시스템의 견고성·정확성·보안성 등을 규정하는 법적 보호 장치는 전혀 마련되어 있지 않음.
- 국회 소위안 인공지능법안에서도 고위험 인공지능에 대한 고지의무만 있을뿐, 준수여부는 기업 자율에 맡기고 있음.
- 주요 국가는 인공지능이 안전과 인권에 미치는 위험을 규제하기 위한 입법을 추진하여 왔음. 또한, 인공지능 기술에 대한 국제표준과 보호장치를 마련할 것을 촉구하는 흐름을 보이고 있음.
- 조 바이든 미국 대통령은 10.30.(현지시간)에 인공지능 관련 규제장치를 담은 행정명령에 서명을 함.
- 유럽연합은 인공지능법안(AI Act)에서 인공지능의 위험도를 수용불가위험/고위험/제한된위험/최소위험(저위험)으로 구분하고 각각에 대한 규제 사항을 구체적으로 규정하였음. 수용불가한 인공지능에 대해서 ‘금지’하고, 고위험 인공지능에 대해서 개발과 이용 사업자에게 명확한 책무를 부과하며, 위반시 엄격한 처벌이 이루어질 수 있어야 함.
- 우리나라와 같은 비유럽연합 국가의 기업이 인공지능 제품이나 서비스를 유럽연합 역내에서 출시하거나 유럽 시민을 대상으로 사업을 하려면 유럽연합 법안이 요구하는 사항을 준수하여야 함.
- 인공지능의 사회적 통제를 위해 인공지능을 규율할 수 있는 포괄적인 법제가 필요함.
- 이와 함께, 인공지능시스템의 차별은 사회의 구조적 차원과 연결되어 있으므로, 포괄적 차별금지법 제정을 통해 ‘차별’에 대한 사회적 기준의 정립이 필요함.
- 인권영향평가는 유엔(UN) ‘기업과 인권 이행지침’에서 권고하는 ‘인권실사’ 의무의 핵심도구로서 인공지능의 위험성을 통제하기 위한 제도로서도 도입될 필요가 있음.