인공지능

인공지능과 정보인권 (5){/}[APC] 인공지능 관련 국제 규제 동향

By 2023/11/16 No Comments
인공지능과 정보인권
2016년 한국 사회는 구글 딥마인드가 개발한 알파고와 프로 이세돌 기사의 세기적 대결을 목격하면서 최근 인공지능의 발달 상황에 대해 크게 놀랐습니다. 2022년 다양한 생성형 인공지능과 대규모 언어모델 챗GPT의 등장은 한층 더 충격적이었습니다. 생성형 인공지능과 언어모델은 일반 사람들이 직접 체험을 해볼 수 있었기 때문에 그 충격이 더욱 직접적이었습니다.
이미 인공지능은 우리 사회의 여러 분야에 도입이 되어 왔습니다. 인공지능 스피커, 번역 서비스, 배달 플랫폼, 채용 AI, 부정수급 탐지 시스템 등 공공과 민간의 여러 분야에서 인공지능이 활용되고 있습니다.
인공지능은 인간의 삶을 더욱 윤택하게 할 것으로 기대를 모으고 있습니다. 그러나 국가인권위원회가 지적하였듯이, 인공지능을 무분별하게 개발·활용할 경우 시민들의 안전과 인권을 위협하고 사회 곳곳에 부정적인 영향을 미칠 수 있습니다. 인공지능이 사람을 대상으로 예측하고 결정을 내릴 때 그 부정적 영향은 치명적일 수 있습니다. 한국의 시민사회단체는 인공지능 기술 발달에 상응하여 그 위험성을 통제하는 규제 체제가 필요하다고 주장해 왔습니다.
진보네트워크센터는 진보통신연합 APC의 지원을 받아, 국내외에서 논란이 되고 대안이 모색 중인 인공지능과 정보인권 문제를 알기쉽게 정리하여 소개합니다.

인공지능 기술의 급속한 발전이 이루어지면서 그 혜택에 대한 기대가 커져왔지만, 다른 한편으로 인공지능의 안전을 위해, 인권 침해와 차별에 대한 문제제기도 확산되고 있습니다. 특히 인공지능의 불투명성 및 설명불가능성으로 인하여 책무성이 확보되지 못하고 안전과 인권을 보장하는 법률의 집행이나 피해자 권리구제가 어려워지는 문제에 대한 대책이 요구되어 왔습니다. 이에 국제적으로 인공지능의 위험을 사전·사후적으로 규제하기 위한 규범이 형성되어 왔습니다. 최근에는 챗GPT를 비롯한 범용 인공지능의 등장으로 인간 중심적 인공지능 통제에 대한 논의가 더욱 활발해졌고 개별 국가보다 더 큰 수준에서 협의가 이루어지기 시작하였습니다.

들어가며

  • 인공지능은 방대한 데이터 분석과 학습을 기초로 추론과 판단을 가능하게 함으로써 경제적·사회적 혁신을 이끌고 궁극적으로 인간의 삶을 더욱 윤택하게 할 것이라는 기대를 받고 있음. 그러나 다른 한편으로 인공지능의 위험을 통제하지 못하면 기본적 인권이 침해될 수 있다는 우려 또한 제기되고 있음.
  • 인공지능이 안전 및 인권에 대한 기존 법률을 위반하였을 때 그 과정과 결과를 투명하게 설명하기 어렵기 때문에 법령의 효과적인 집행을 방해할 수 있음. 이는 인공지능의 개발과 활용에 관여한 이들이 책임을 회피하고 그 영향을 받는 사람들의 피해를 구제하기 어렵게 만들 수 있음.
  • 특히 공공부문에 조달되는 인공지능의 불투명성이나 편향성은 국민이 자신에게 적용되는 국가 또는 지자체의 처분에 대하여 충분히 설명을 듣고 이의제기를 할수 있어야 한다는 헌법상 적법절차의 원리에 위배될 우려가 있음.
  • 이에 최근 유럽연합, 미국, 캐나다, 영국 등 주요 국가들은 인공지능의 위험을 방지 또는 완화함으로써 인공지능의 투명하고 책임있는 개발과 활용을 촉진하기 위한 제도 마련에 나서고 있음. 우리나라 국가인권위원회도 2023. 8. 국회의장에 대하여 인권침해·차별 문제를 예방·규제할 수 있는 인공지능 법률안을 마련할 것을 요구함.

인공지능 윤리의 발전

  • 인공지능 신기술이 빠른 속도로 발전하고 자율 무기 등의 위험성에 대한 우려가 커지자, <아실로마 인공지능 원칙> 등 인공지능의 ‘윤리적’ 개발을 촉구하는 다양한 원칙들이 세계 여러 곳에서 발표됨.

<표> 주요 인공지능 윤리원칙

<표> 주요 인공지능 윤리원칙

출처: 한국연구재단(2020). 주요 국가의 인공지능(AI) 관련 연구윤리 정책 동향 조사. NRF ISSUE REPORT 2020_18호.

  • 특히 OECD는 2019. 5. 22. <OECD 인공지능 원칙>을 채택함. 이는 인공지능에 관한 최초의 정부간 표준 권고안으로 알려짐.
    • OECD 원칙은 신뢰할 수 있는 인공지능 구현을 위한 원칙으로 ①포용적 성장, 지속 가능한 개발 및 웰빙, ②인간 중심의 가치와 공정성, ③투명성과 설명가능성, ④견고성, 보안 및 안전, ⑤책임의 5가지를 제시함.
    • OECD는 인공지능에 대한 정책 방향 중 하나로, “신뢰할 수 있는 AI를 위한 혁신과 경쟁을 장려하기 위하여, AI 시스템에 적용되는 정책 및 규제 프레임워크와 평가 메커니즘을 적절하게 검토하고 조정할 것”을 각국 정부에 권고함.
  • 그러나 인공지능 윤리 원칙들은 일정한 수준의 인공지능 통제가 필요하다고 인정하면서도 인공지능 기업들의 기량에 의존하는 기업 자율 규제를 옹호한 측면이 있었음.
    • 이른바 ‘윤리적 AI’ 담론은 기술에 대한 법적인 의무를 회피하려는 빅테크 기업의 전략과 긴밀하게 연계되어 있다는 비판이 제기되기도 함.
    • 실제로 2023년 인공지능 경쟁이 거세어지자 구글, 마이크로소프트, 메타 등 글로벌 빅테크 기업은 인공지능 윤리팀을 해고함. 이에 기업 주도의 인공지능 자율규제에 대한 회의론이 제기됨.
  • 반면 유엔 국제 기구들은 기업 또는 각국 정부가 주도해 온 인공지능 윤리에 대하여 국제인권규범을 반영하고 법률에 기반하여 규제할 것을 요구함.

유엔 기구의 권고

  • 유엔 인권규범의 경우 인공지능 기술에 대해서도 인권 보호, 존중, 구제의 실현을 요구함. 특히 유엔 기구들은 기술 기업에 대하여 유엔 <기업과 인권 이행지침>에 따른 인권실사 등 인권기반 접근을 요구함.
    • 유엔 인권규범에 따르면 국가는 적절한 정책·규제 및 심사를 통해 기업을 포함한 제3자에 의한 인권 침해로부터 사람들을 보호할 의무가 있고, 기업은 타인의 권리 침해를 방지하고 인권에 부정적 영향을 주는 문제들을 해결하는 등 인권 존중에 관한 책임이 있으며, 사법적·비사법적 메커니즘을 포함하여 피해자의 접근성이 보장되는 실효성 있는 구제수단 마련이 필히 요구됨.
    • 유엔 인권규범은 법제도에 기반한 인공지능 규제를 권장하고 각국의 인공지능 규제 정책을 촉구함.
  • 유엔 의사 표현의 자유 특별보고관은 2018. 8. 29. 보고서에서 “윤리 강령은 인권 책무를 중요하게 보완할 수는 있지만 대체물은 아니다.”라고 지적하면서 “민간이 주력하고 공공이 추구하는 인공지능 윤리는 인권 기반 규제에 대한 반발을 내포한 경우가 많다. 인공지능 분야에서 윤리는 특정 과제를 해결하는 중요 체계를 제공하지만, 윤리가 모든 국가에서 법률로 구속되는 인권을 대체하는 것은 아니다. 기업과 정부는 윤리 강령과 지침을 개발할 때에도 인공지능 운영의 모든 측면에 인권 고려사항과 책임을 확실하게 통합시켜야 한다”고 밝힘. 더불어 “인공지능 기술의 윤리적 영향에 대한 가이드라인이나 규약을 만드는 모든 노력은 반드시 인권의 원칙에 기반을 두어야 한다”고 권고함.
    • 보고서는 인공지능이 의사 표현의 자유에 미치는 영향에 대해 조사하면서, 이제 인공지능이 정보 환경의 중요한 부분이 되어 개인의 권리 향유에 혜택과 위험을 동시에 주고 있다고 지적함.
    • 특별보고관은 기술적 역능의 확장에 대응하여 인권을 보장해야 하는 국가의 의무와 기업의 책임을 강조하면서 국가와 기업이 인권실사 의무를 준수하는 조치를 실행할 것을 요구함.
    • 특히 특별보고관과 유엔 인권절차는 인공지능에 대한 법적 체계에 반영되어야 할 원칙으로서 △인권 원칙 준수 △투명성 보장 △인권영향평가 실시 △감사 실시 △개인의 자율성 보장 △고지 및 동의 원칙 △권리구제 보장 등 7가지 원칙을 제시함.
  • 유엔 사무총장은 2020. 3. 4. 보고서에서에서 인공지능 등 신기술 환경에서 사회권을 보장하기 위하여 “국가는 민간 부문 활동에 관한 조치를 포함하여 입법 조치를 취해야 할 의무를 재확인하고 준수”할 것을 요구함.
    • 사무총장은 특히 인공지능 등 신기술이 사용되는 상황에 대해 책임성을 완전하게 보장하는 적절한 법률체계와 절차방법을 마련하여 감독 체제를 수립하고 구제 수단을 구비할 것을 요구함.
  • 유엔 인권이사회는 2019년 제42차 회기에서 <디지털 시대 프라이버시권 결의안>을 개정 결의하면서 인공지능을 비롯한 신기술에 대한 규율을 요구함. 이 인권이사회 결의의 주요 내용은 2020년 12월 유엔 총회 결의로 채택됨.
    • 인권이사회는 인공지능 등 신기술(new and emerging technologies)의 사용, 배치 및 이후 발전이 프라이버시권 및 기타 인권의 향유에 영향을 미칠 수 있다는 사실을 인정하고, 프라이버시권에 대한 위험을 최소화할 수 있고 또 하여야 한다는 사실을 강조함.
    • 이는 인공지능 등 신기술의 설계, 개발 및 배치에 있어 국제인권법을 고려하는 등 적정한 규제와 기타 적절한 메커니즘을 도입하고, 인간의 감사 및 시정 메커니즘을 개발함으로써 이루어질 수 있다고 강조함.
    • 특히 국가는, 기업이 인공지능을 비롯한 기술을 설계, 개발, 배치 및 평가할 때 프라이버시권을 비롯한 관련 인권을 완전히 준수하도록 보장하고, 그 권리가 침해되거나 남용당한 개인에게 배(보)상하고 반복을 금지하는 등 효과적인 구제 수단에 접근할 수 있도록 규정하는 법률, 규제 및 정책을 도입하여야 한다고 권고함.
  • 유엔 인권최고대표는 2021. 9. 13. <디지털 시대 프라이버시권 보고서>에서 인공지능 시스템에 대한 인권 기반 접근법을 강조하고 국가와 기업에 대하여 프라이버시권을 비롯한 인권 침해를 방지하는 안전장치의 설계 및 구현을 요구함. 인권최고대표는 이러한 조치들로 인공지능이 제공할 수 있는 편익을 최대한 누리면서 유해한 결과물은 방지하고 완화할 수 있다고 강조함.
    • 인권최고대표는 인공지능의 불투명성으로 인해 인권 침해를 유의미하게 조사하는 것이 어려워지고 인공지능 시스템이 위해를 야기하는 경우에도 효과적인 책무성 확보가 어려울 수 있다고 우려함.
    • 또한 인권최고대표는 기본권을 제한하는 인공지능이 법률에 기반하고, 공공과 민간의 인공지능 사용에서 부정적인 인권 영향을 방지 및 완화하는 입법과 규제 체계를 도입하며, 인공지능 피해자가 효과적인 구제수단을 이용할 수 있도록 보장할 것을 요구함. 더불어 보다 구체적인 인공지능 규제 입법의 기준을 제시함.
    • 우선 입법은 여러 부문 인공지능에 적용할 수 있을 만큼 구체적이어야 함. 인권에 대한 위험이 높을수록 인공지능 기술의 사용에 대한 법적 요구사항이 엄격해져야 함. 위험별로 규제하는 법률과 규제의 경우 국제 인권법 하에서 정당화되지 않는 잠재적 또는 실제적 영향을 초래하는 특정 인공지능 기술, 애플리케이션 또는 사용 사례에 대하여 금지하여야 함. 국가의 사회신용점수 등 차별 금지와 본질적으로 충돌하는 인공지능의 사용은 허용되어서는 안 됨. 또한 인권에 부정적인 영향이 발생할 가능성이 있을 때 인간의 감독과 개입이 규정되어야 함. 특히 원격 실시간 얼굴 인식과 같은 고위험 기술의 경우, 인권이 보장될 때까지 유예(모라토리엄)하여야 함.
    • 인권최고대표는 입법에서 인공지능에 대한 적정하고 독립적이고 공정한 감독 체계를 포함해야 할 필요성을 강조함. 이러한 감독은 행정적, 사법적, 준사법적 및 의회 감독 기관의 조합으로 수행될 수 있고, 개인정보보호 감독기구, 소비자 보호 기관, 부문별 규제 기관, 차별 방지 기구 및 국가 인권 기구가 감독 시스템의 일부를 구성해야 함.
    • 한편, 인권최고대표는 인공지능에 대한 인권 실사를 강력히 요구함. 인공지능의 사용이 인권과 양립할 수 없는 것으로 나타나는 경우 그 사용을 중지하여야 함.
    • 국가와 기술 기업 사이에 긴밀한 연합 관계가 있는 상황에 대해서는 인권에 대한 정부의 책무를 포기하는 결과로 이어지지 않도록 집중적인 주의가 요구됨. 국가가 공공재 또는 서비스를 제공하기 위해 민간 인공지능 기업에 의존하는 경우 독립적인 감독을 받아야 하고, 해당 기업으로부터 인공지능 애플리케이션의 정확성과 위험에 대한 정보를 받고 평가할 수 있어야 함. 위험을 효과적으로 완화할 수 없는 경우, 국가는 공공재 또는 서비스 전달에 인공지능을 사용하지 말아야 함.
    • 마지막으로 인권최고대표는 투명성 확보를 강조함. 국가, 기업 및 기타 인공지능 사용자는 그 시스템의 종류, 사용 목적, 시스템 개발자와 운영자의 신원에 대한 정보를 일반에 공개하여야 하며, 의사결정이 자동으로 이루어졌을 때에는 영향을 받는 개인에게 이를 알리고 특히 공공부문의 인공지능 의사결정에 대하여 설명할 수 있어야 함. 인권에 중대한 위험이 있는 인공지능에 대해서는 등록제도를 도입해야 함. 개인정보를 인공지능 데이터셋으로 사용할 때는 이를 통지하고 정보주체 열람·삭제·정정권을 보장하며, 개인이 프로파일링을 더 잘 이해하고 통제할 수 있도록 주의를 기울여야 함. 더불어 인권에 중대한 부정적인 영향을 미칠 수 있음에도 이를 감사(audit)할 수 없는 인공지능 시스템은 사용하지 않아야 함.

공공부문 규제 등장

  • 사회복지 급여지급 등 공공부문에서 빅데이터와 인공지능을 이용한 자동화된 의사결정이 도입되면서 시민의 인권을 침해하고 공공부문 투명성과 적법절차의 원칙 및 민주주의를 위협한다는 비판이 커짐. 이에 공공부문에서 조달하는 인공지능의 투명성을 확보하고 규제하기 위한 규범이 우선 발전함.
  • 캐나다 정부에서 공공조달을 담당하는 재정위원회는 2019년 <자동화된 의사결정 훈령>을 제정하고 외부를 대상으로 추천이나 행정적 의사결정을 하는 데 사용되는 연방 인공지능 시스템에 적용되는 규범을 법제화하였음.
    • 훈령은 자동화된 공공 의사결정 시스템의 도입 전에 ‘알고리즘 영향평가’를 실시하도록 함. 평가 결과 위험성 수준에 따라 △동료 검토 △의사결정 전 공지 △의사결정에 대한 인간의 개입 △의사결정 후 설명 △교육훈련 △비상 계획 △시스템 구동 승인 등의 의무사항을 4단계로 나누어 적용함.
    • 그밖에도 훈령은 자동화된 공공 의사결정 시스템에 대하여 △정부가 조사 등을 하기 위하여 구성요소에 접근하고 테스트할 수 있도록 보장하고 의사결정을 문서화하도록 하는 등 투명성 의무를 부과하고, △데이터 편향성 등을 테스트하고 결과물의 준법성 등을 모니터링하는 한편 데이터 품질을 검증하는 등 품질 보장 의무를 부과하였으며, △행정적인 의사결정 대상의 이의 제기 보장 등을 규정함.
  • 유럽평의회는 정부가 알고리즘 시스템의 사용, 개발 또는 조달을 통해 인권을 침해하지 않도록 보장하기 위하여 2020. 4. <알고리즘 및 자동화에서 인권 침해 방지를 위한 지침>을 권고함.
    • 이 지침은 국가의 의무(B장)와 민간 부문 행위자의 책임(C장)으로 나누어 인권 침해 방지를 위한 원칙을 담음. 지침은 알고리즘 및 자동화의 인권 침해 방지 쟁점으로 △일반 적용 원칙, △데이터 관리, △분석 및 모델링, △투명성·책무성 및 효과적인 구제수단, △예방적 조치, △연구·혁신 및 대중적 인식 제고의 문제를 꼽고 이에 대한 국가와 민간의 의무를 각각 제시함.
  • 유럽 집행위원회는 2020. 5. <인공지능 공공조달 백서>를 발간하고 “데이터 윤리, 민주주의 및 기본권에 부합하는 공공조달을 구현”하고자 함. 백서는 특히 인공지능 공공조달에 대하여 위험 기반 접근법을 권고함.
    • 백서는 인공지능 공공조달의 5단계 실사 절차로서, ①사전적인 위험 영향평가를 실시하고, ②공급자 예비 심사에서 설계 단계부터 추적가능성, 설명가능성, 편향 방지, 문서화 등 데이터 윤리의 구현을 요구하며, ③공급자 선정과 품질 기준으로 정보보안, 데이터 윤리, 환경, 프라이버시, 보편적 설계 등을 반영하고, ④계약 이행 조건에 지속가능성, 기본권 존중, 데이터 윤리, 문서화를 요구하며, ⑤계약 집행시 데이터 윤리, 법적 준수, 책임성, 기술적 안전성, 지속가능성의 요구사항을 충족하도록 하였음.
  • 영국 정부는 2020. 6. <인공지능 조달지침>을 제정하고 공공조달을 통하는 인공지능에서 10대 원칙을 따르도록 행정규칙을 마련함.
    • 특히 이 조달지침은 조달 절차 개시 전 ‘데이터 평가’와 조달 절차 개시 후 ‘영향 평가’ 수행을 요구함. 데이터 평가에서는 △조달 절차의 개시 단계부터 데이터 거버넌스 메커니즘이 가동될 수 있도록 보장하고, △시장에 출시하기 전에 데이터 내부의 결함 및 편향 가능성을 해결할 것 등을 요구함. 인공지능 영향 평가는 그 결과를 조달에 반영하였는지 반복적으로 확인할 것을 요구함.
  • 해외 일부 지방자치단체는 도입한 인공지능의 주요 사항을 시민들에 공개하는 정책을 시행함.
    • 2020년 네덜란드 암스테르담 시와 핀란드 헬싱키 시는 시민들에 알고리즘 등록부를 시범적으로 공개함. 이 알고리즘 등록부는 시가 도입·운영하는 인공지능 시스템의 △학습 데이터셋에 대한 정보, △데이터 처리에 대한 정보, △차별 방지에 대한 정보, △인간 감독에 대한 정보, △위험성에 대한 정보 등을 읽기 쉬운 평문으로 공개하는 한편, 이를 책임지는 공직자의 이름, 부서 및 연락처도 공개하여 시민들이 의견을 제출할 수 있도록 함.
    • 프랑스 앙티브 시는 「디지털 공화국법」에 따라 2021년 2월부터 알고리즘 주민공개 제도를 실시하고, 각 알고리즘의 △행정 정보(관계 행정부서명, 관리/위탁업체, 행정부서 연락처, 정보 업데이트일자), △알고리즘 관련 사업 및 의사결정에 대한 정보(알고리즘명, 배경, 알고리즘 목적, 의사결정 절차, 의사결정 자동화 수준, 법적 근거, 관련자료), △의사결정 영향에 대한 정보(연간 이루어진 행정결정 수, 결정 범위, 결정의 영향을 받는 사람들), △알고리즘 작동원리에 대한 정보(처리 데이터, 처리 데이터 출처, 처리 데이터 수집방법, 알고리즘 유형, 알고리즘의 수행 작업)를 공개함.

침해 영역별 규제 도입

  • 인공지능 활용이 빠르게 증가한 영역 가운데 채용과 생체인식 분야에서 특히 논란이 커짐. 이에 미국에서는 지역적 수준에서 이 분야에 적용되는 규제 법규가 발전함.
    • AI 채용은 세계 각국에서 성별, 외모, 지역별 사투리 등에 기반한 편향성 우려가 불거져 왔으며, 결과에 대하여 제대로 설명하지 않는다는 지적을 받아옴. 우리나라에서도 비합리적이고 불투명한 운영방식으로 논란이 되고 있음.
    • 공공장소에서 얼굴인식을 비롯한 원격 생체인식 기술을 활용하여 개인을 식별하고 추적하는 것이 인권침해라는 비판이 계속되어 옴. 유엔 인권최고대표는 개인의 생체인식정보는 다른 사람과 구별되는 고유한 인격의 핵심이며, 공공장소 생체인식은 사람들이 관찰되지 않고 자신의 삶을 영위할 수 있는 능력을 약화시키고 이동의 자유, 표현의 자유, 평화로운 집회 및 결사의 자유에 대한 권리 행사에 직접적으로 부정적인 영향을 미친다고 지적함. 특히 미국에서는 “흑인의 생명도 소중하다(Black Lives Matter)” 대규모 시위 이후 경찰의 얼굴인식에 대한 문제의식이 급증함. 실제로 경찰의 얼굴인식 기술이 흑인을 잘못 인식하여 체포하고 때로 장기간 구금하는 일이 반복적으로 발생하면서 생체인식의 인종 차별에 대한 비판이 일었음.
  • 미국의 일부 주와 시 정부는 AI 채용 규제 법규를 도입하여 구직자에게 AI 활용에 대해 사전 동의를 받거나 AI 기술의 작동방식에 대하여 설명하도록 하고, 때로는 채용 AI의 편향성이나 타당성을 감사하도록 함.
    • 2020년 최초로 일리노이 주가 채용절차에서 AI 기술 활용을 제한하는 법률을 제정함. 일리노이 주 [인공지능 영상면접법]의 경우 구직자에게 AI 활용 사실을 고지하고 일부 동의를 받도록 하였으며, 구직자가 제출한 영상의 공유를 제한하고 삭제하도록 의무화함. 메릴랜드 주, 워싱턴 주, 캘리포니아 주, 컬럼비아특별구에서도 채용 AI 활용에 대하여 일정한 제한을 부과함.
    • 특히 미국 뉴욕 시는 2021년 고용결정 자동화 도구에 대한 조례를 제정하여 2023년 4월부터 시행함. 조례는 고용주에게 △지원자 및 직원에게 자동화 도구 활용에 대하여 사전 통지를 하도록 하고, △자동화 도구를 활용하기 1년 이내에 제3의 독립된 외부기관으로부터 ‘편향성 감사’를 받도록 하여 주목을 받음.
    • 뉴욕 시의 편향성 감사는 AI 도구가 특정 집단에 편향적인 영향을 미쳤는지 여부를 평가하며, AI 기술 적용 유무에 따른 집단 간 합격률을 비교함. 기업은 AI 편향성 감사 결과를 매년 공시할 의무가 있으며, 위반 시 최대 1,500달러의 벌금이 부과됨.
  • 미국에서는 경찰과 연방수사국(FBI)을 비롯한 다양한 법 집행기관에서 범죄 예방과 수사, 출입국 통제 등의 목적으로 얼굴인식 기술을 사용해 왔음. 2019년 미국표준기술연구소(NIST)의 연구에 따르면 1:1 방식의 생체 검증 알고리즘의 경우 백인에 비해 아프리카계, 원주민, 아시아계에 대해 10배에서 100배 정도의 위양성률을 보였고 여성과 노인 및 아동에도 차별적 경향을 드러남. 미국 경찰이 많이 사용하는 클리어뷰 AI 얼굴인식 정보의 경우 무분별한 개인정보 침해에 대하여 비판받아 왔으며, 캐나다, 호주, 유럽, 미국 등에서 개인정보 보호당국의 제재나 소송을 거쳐 활용이 중단됨 (이하 내용 참조).
    • 우선 공공분야 얼굴인식에 대해서는 캘리포니아 주 샌프란시스코 시에서 2019년 5월, 미국 최초로 공공기관의 얼굴인식 기술 사용을 금지하는 조례가 통과됨. 해당 조례는 경찰을 포함한 지방 기관의 얼굴인식 기술과 여타의 감시 기술 사용을 전면적으로 금지함. 샌프란시스코 시를 시작으로 매사추세츠 주 섬머빌, 캘리포니아 주 오클랜드, 버클리 등 약 10여 곳의 도시에서 유사한 얼굴인식 금지 조례가 제정됨.
    • 주 차원에서도 캘리포니아 주, 뉴 햄프셔 주, 오리건 주 등에서 경찰의 바디캠 얼굴인식 기술 사용을 금지하는 법안이 통과됨. 2020년 3월 워싱턴 주에서 공공기관 얼굴인식 전체에 일정 의무를 부과하는 주 법률이 제정됨.
    • 민간부문 얼굴인식에 대해서는 2008년 일리노이 주가 미국 최초로 얼굴인식정보를 포함한 생체인식정보를 규율하는 일리노이 생체인식 개인정보 보호법(Biometric Information Privacy Act, BIPA)을 제정함. 해당 법은 생체인식에 대하여 서면 동의와 고지, 소송에 대한 권리 면에서 일반 개인정보보다 강력하게 보호함.
    • 2020년 9월에는 오리건 주 포틀랜드 시가 미국 최초로 숙박시설, 음식점, 상점, 유흥시설, 공공장소에서 민간의 얼굴인식 기술 사용도 금지시키는 조례를 통과시킴.
    • 연방 수준에서는 ‘얼굴인식의 윤리적사용법(Ethical Use of Facial Recognition Act)’, ‘국가 생체인식 정보보호법(National Biometric Information Privacy Act of 2020)’ 등의 법안이 제안되었으나 입법에는 이르지 못함.

유럽연합, 포괄적 인공지능 규제 추진

  • 유럽 집행위원회와 인공지능 고위전문가그룹은 2019년 <신뢰할 수 있는 인공지능을 위한 윤리 지침>을 발표함. 이 지침은 신뢰할 수 있는 인공지능은 1) 합법적이고 2) 윤리적이며 3) 견고해야 한다는 원칙을 천명하고 인공지능 시스템이 인권 원칙으로부터 도출되는 신뢰성을 확보하기 위해서 개인정보보호, 투명성과 책무성을 보장할 것을 요구함.
    • 인공지능 시스템이 이러한 요구사항을 만족하는지 평가하기 위하여, 지침은 <신뢰할 수 있는 인공지능 평가목록>도 함께 발표하며 인공지능 영향평가의 원형을 제시함.
    • 평가목록의 공개와 함께 유럽연합 인공지능 윤리는 기존의 윤리 원칙들과 다른 실천력을 보여주었다고 평가받음. 나아가 이 윤리 지침은 “새롭고 구체적인 규제 마련을 장려”하겠다는 지향을 밝히면서 법적 규제를 예고함.
  • 윤리 지침에서 밝힌 원칙을 법규로 발전시키기 위하여 유럽 집행위원회는 2020. 2. <인공지능 백서>에서 윤리 지침을 실현하는 “인공지능 규제 프레임워크”를 제시함. 이 규제 프레임워크는 인공지능 위험 수준별로 규제를 차등화하는 위험기반 접근법을 표방함.
위험 기반 규제 접근 방식

출처: European Commission(2021). “Shaping Europe’s Digital Future”, p7.

  • 유럽 집행위원회는 2021. 4. 21. 세계 최초로 포괄적인 인공지능 규제 법규로 [유럽연합 인공지능법안(AI Act)] 초안을 발표함. 이 법은 비직업적 사용을 제외하고 유럽연합 역내에 도입되는 공공 및 민간의 모든 인공지능 제공자와 사용자에게 적용됨.
    • 유럽 집행위원회는 많은 알고리즘의 불투명성이 불확실성을 유발하고 안전 및 기본권에 대한 기존 법률의 효과적인 집행을 방해할 수 있다고 지적하고, 이 문제를 해결하기 위해 입법한다고 설명함.
    • 인공지능법안은 위험기반 접근법을 취하여 인공지능의 위험성을 4가지 수준으로 구분하여 규제 수준을 달리 함. ①허용할 수 없는 위험에 해당하는 인공지능을 금지하고, ②고위험은 사람들의 안전이나 기본권에 부정적 영향을 미치는 인공지능으로 이를 제공하거나 사용하려면 엄격한 의무사항을 준수하여야 함. ③금지되거나 고위험인 인공지능은 아니지만 인간과 상호작용하는 챗봇, 인간의 감정이나 범주를 탐지하는 인공지능, 딥페이크 등 특정 인공지능은 그 사실을 공지하는 투명성 의무가 적용되며, ④최소한의 위험에 해당하는 인공지능은 추가적인 법적 의무 없이 기존의 제품안전법률, 개인정보보호법, 차별금지법 등을 준수하면 허용됨.
    • 금지되는 인공지능에는 사람의 무의식을 조종하거나 연령·장애 등 취약집단 취약성을 악용하여 피해를 주는 인공지능, 공공기관의 범용 사회신용점수, 법집행기관이 법원의 사전 허가 없이 공공장소에서 원격으로 생체인식을 하는 경우 등이 포함됨.
    • 고위험 인공지능은 기계류, 의료기기, 장난감, 항공, 자동차 등 안전에 미치는 고위험 분야와 원격 생체인식, 교육, 고용, 사회복지·신용평가·응급서비스 등 필수서비스, 경찰, 출입국, 사법 분야에서 사용되는 인공지능으로 기본권에 미치는 고위험 분야가 해당됨.
    • 고위험 인공지능 시스템의 의무로는 △위험 관리, △데이터 세트의 품질 관리를 위한 데이터 평가와 데이터 거버넌스, △기술 문서화 및 기록, △인공지능을 사용하는 자에 대한 정보 제공, △인적 감독, △견고성·정확성·사이버 보안의 요구사항을 준수하도록 함. 특히 고위험 인공지능 시스템의 제공자는 출시 전에 △품질 관리 시스템을 구축하고 시판 후 모니터링 시스템을 구축하며, △기술 문서 및 로그 기록을 작성하고, △필요한 적합성 평가 절차를 이행하고 CE 인증을 받아야 하며, △EU 고위험AI 데이터베이스에 등록하고 규제기관에 협력해야 함.
    • 고위험 인공지능이 의무사항을 준수하였음을 입증하는 절차는 사전과 사후로 구분됨. 출시 전에는 사전 적합성평가를 이행하되, 안전제품과 원격 생체인식의 경우 제3자가 평가하고 그밖의 고위험 인공지능은 자체적으로 적합성을 평가함. 출시 후 사고가 발생하거나 의무사항을 준수하지 못하는 경우 규제기관이 사후적으로 개입하여 조사하고, 이를 위한 추적가능성과 피해자 권리구제를 보장하기 위하여 문서기록 등 투명성 의무를 강조함.
  • 유럽 의회는 2023. 6. 14. 집행위원회 초안을 수정하여 통과시킴. 유럽 집행위원회-유럽 의회-유럽 이사회 3자가 인공지능법안의 최종안을 다듬고 있으며 2025년 또는 2026년에 시행될 것으로 관측됨(2023. 11. 현재).
    • 의회안은 금지되는 인공지능을 확대함. 성별, 성정체성, 인종·민족, 정치적 성향, 종교 등 차별 금지 사유에 해당하는 기준으로 개인을 분류하는 것을 금지하고, 취약성을 악용하는 인공지능도 광범위하게 금지함. 범용 사회신용점수의 경우 공공기관 뿐 아니라 민간에 대해서도 보다 광범위하게 금지하고, 공공장소 원격 생체인식의 경우 법집행기관 뿐 아니라 모든 경우에 예외없이 금지하였으며 다만 CCTV 확인 등 사후 생체인식의 경우 법원의 허가를 받도록 함. 경찰의 예측치안도 금지함. 인터넷이나 CCTV 영상에서 무차별적인 얼굴정보 수집을 금지함. 법집행, 출입국, 직장, 교육 기관의 감정인식 사용도 금지함.
    • 의회안은 고위험 인공지능도 추가함. 원격 생체인식 뿐 아니라 생체인식정보를 기반으로 감정을 인식하거나 사람의 개인적 특성을 추론하는 경우 고위험으로 추가함. 건강이나 생명보험 자격에 대한 결정을 내리는 인공지능도 필수서비스로 고위험에 포함됨. 사법 분야 뿐 아니라 분쟁조정을 비롯한 행정 기관을 지원하는 인공지능도 고위험으로 추가됨. 선거나 투표의 결과나 행위에 영향을 미치는 인공지능도 고위험에 포함함. [디지털서비스법] 상 대규모온라인플랫폼으로 분류되는 경우도 고위험으로 추가함.
    • 고위험에 대한 요구사항으로는 에너지 소비량 등을 문서화하고 배출량 등을 투명하게 공개하도록 할 것과 장애인 접근성에 대한 보장 의무가 추가됨.
    • 의회안에서 가장 눈에 띄는 변화로는 챗GPT 등 범용AI에 대한 규제가 신설된 것을 들 수 있음. 의회는 ‘파운데이션 모델’에 대하여 고위험 인공지능에 대한 요구사항과 유사한 의무를 일부 도입함. 위험영향 평가와 완화, 데이터 편향성 평가 및 데이터 거버넌스, 성능과 보안 등 기술 표준 준수, 환경 표준 준수, 정보 공개, 기술 문서 보관을 요구함. 특히 생성형 모델은 콘텐츠가 사람이 아닌 AI 시스템에 의해 생성되었다는 사실에 대한 투명성을 보장해야 함. 그러나 적합성 평가 등 고위험 의무 중 일부는 파운데이션 모델에 적용되지 않음.
    • 의회안은 ‘사용자(user)’을 대체하여 ‘배치자(deployer)’ 개념을 도입함. 배치자는 유럽연합 개인정보보호법(GDPR)에 따른 개인정보보호 영향평가를 실시하고 공개할 의무가 있고, 나아가 인공지능의 배치로 영향을 받는 사람들의 인권에 미치는 영향을 평가하고 완화하는 기본권영향평가를 실시하고 공개할 의무가 있음. 더불어 배치자가 국가 관할 당국에 협력할 의무도 부과함. 공공기관과 [디지털시장법] 상 게이트키퍼에 해당하는 배치자는 EU 고위험 AI 데이터베이스에 등록할 의무도 있음.
    • 더불어 의회안은 ‘권리구제’ 장을 신설하여 피해자가 국가감독기관에 진정을 접수하도록 하고, 처리결과에 대하여 사법적 구제를 받을 수 있도록 함. 또한 고위험 AI 시스템의 결과물에 중대한 영향을 받은 사람에게 설명을 요구할 권리를 보장하였음.

미국의 인공지능 규제는 아직 제한적

  • 앞서 살펴보았듯이 미국에서는 고용, 생체인식 등 부문별 인공지능 규제가 주로 이루어져 왔으나, 최근 포괄적인 인공지능 규제에 대한 논의가 이루어지기 시작함.
  • 연방의회는 [알고리즘 책무성 법안]과 [미국 개인정보 보호법]을 발의하고 제정을 추진해 옴. 특히 2022년 상하원 공동으로 발의된 [알고리즘 책무성 법안]은 일정규모 이상 기업의 ‘자동화된 의사결정 시스템’과 증강된 ‘중요 의사결정’ 프로세스를 대상으로 매년 ‘영향평가’를 실시하고 연방거래위원회(FTC)의 감독을 받도록 규정함.
    • 여기서 ‘중요 의사결정’이란 개인의 삶에 중대한 영향을 미치는 교육, 고용, 인프라, 가족 계획, 금융, 의료, 주거, 법률 서비스 등으로, 이는 유럽연합의 ‘고위험’ 영역과 일부 공통적임.
  • 바이든 행정부 출범 이후 2022. 10. 5. 백악관이 <AI 권리장전>의 청사진을 발표함.
    • AI 권리장전의 청사진은 △안전하고 효과적인 시스템, △알고리즘 차별로부터 보호, △개인정보 보호, △통지 및 설명, △인간 대안, 검토 및 대체 등 모든 인공지능이 지켜야 할 5가지 기본 원칙을 제시함. 특히 이 원칙들을 보장하기 위한 실행방안으로 독립적이고 사전적인 인공지능 평가와 공개를 공통적으로 제안함.
  • 또한 트럼프 대통령과 바이든 대통령은 각각 인공지능 규제를 위한 행정명령을 발동함. 특히 2023. 10. 바이든 정부가 발동한 행정명령의 경우 역대 가장 포괄적인 인공지능 규제와 지침을 포함하였다는 평가를 받음.
    • 바이든 행정명령은 새로운 AI 모델이 출시되기 전에 국립표준기술연구소(NIST)의 ‘레드팀’ 테스트 결과, 국가 안보, 경제 안보, 공중보건, 안전 등에 위험을 초래할 것으로 나타난 경우 개발사가 테스트 결과를 미국 정부와 공유하도록 요구함. 이는 백악관이 2023. 8. 주요 인공지능 기업들과 합의한 자율 준수 요건을 강화하였다는 평가를 받음.
    • 행정명령은 또한 연방 각 기관이 노동자 권리 보호, 소비자 보호, 공정 경쟁 보장, 정부 서비스 분야에서 인공지능 사용에 대한 규정과 지침을 개발할 것을 요구함.
    • 그러나 행정명령은 규정 준수를 의무화하지 않고 표준 수립에 보다 중점을 둠. 이에 미국 인공지능 규제가 여전히 법적 의무 수준에 이르지 못했다는 지적을 받음.

나가며

  • 인공지능의 급속한 발달로 안전 위해와 차별 등 인권 침해에 대한 우려가 함께 커지면서 자율적인 윤리 기준이 우선적으로 발달해 옴. 반면 유엔 기구는 법률에 따른 인공지능 규제를 꾸준히 권고하였으며 일부 국가에서는 침해성이 먼저 불거진 공공, 채용, 생체인식 등의 분야에서 부분적으로 규제 법규를 도입함.
    • 국제적인 인공지능 규범 논의는 기업 주도의 자율 규범에 기반한 논의와 의무적인 규범에 기반한 제도 논의로 분기하여 옴.
    • 최근 유럽연합의 인공지능 법안이나 미국 바이든 대통령의 행정명령 등에서 구체적인 인공지능 규제 제도가 현실화되고 있음.
  • 2023. 10. 30. G7 국가들은 ‘첨단 AI(Advanced AI)’ 회사가 준수해야 하는 자율적 행동 강령에 합의함. 2023. 11. 2. 영국에서도 ‘프런티어 AI’에 대하여 안전 규정을 마련하려는 AI 안전 정상회의가 개최되어 28개국이 공동으로 ‘블레츨리 선언’을 채택함. 한편 이들 논의들이 AI의 ‘실존적 위험’을 과장하면서 현실적인 문제를 외면할 수 있다는 우려도 제기됨.
    • 특히 2022. 11. 챗GPT 출시 이후 범용 인공지능에 대한 우려 확산으로 인공지능의 위험성에 대한 국제적 논의가 더욱 활발해진 측면이 있음. 인간의 능력을 초월하는 자율적 초인공지능 등장으로 인류의 실존이 위협받고 있으며 인공지능의 개발을 중단해야 한다는 주장도 등장함.
    • 다른 한편에서는 챗GPT를 비롯한 생성형 인공지능은 고의적으로 제품을 의인화하여 소비자를 위법적으로 기만하였으며, 초인공지능의 먼 미래보다 가까운 문제 해결에 집중해야 한다는 반박도 이루어지고 있음.
  • 인공지능 규제의 핵심 쟁점은, 인공지능이 안전과 인권에 관한 기존의 규제 법률을 침해하는 결과를 낳았을 때, 어떻게 이 문제에 효과적으로 개입하고 통제할 것이냐에 대한 것임.
    • 인공지능은 특유의 불투명성으로 인하여 사람과 사회가 입은 피해에 대하여 원인과 결과를 명확하게 설명하거나 구제하기 어렵고 규제기관이 조사하고 제재하기 어렵다는 지적이 이루어져 옴.
    • 자율주행차 사고 등에서 사고 원인을 추적하거나 설명하기 어렵다는 논란이 불거지자 일각에서는 아예 로봇 등에 인격을 부여하여 보험에 가입하고 책임을 지게 하자는 주장이 등장함. 그러나 이런 흐름에 대해서는 “제조사의 책임을 없애려 하고 있다”는 비판이 제기됨.
    • 유럽평의회 인권위원장은 “인공지능의 인권 침해에 대한 책임성과 책무성은 항상 자연인 또는 법인에게 있어야 한다”고 지적함.
  • 이에 각국이 도입하여 온 인공지능 규제 법규들은 인공지능 제공자 또는 사용자로 하여금 ‘사전적인’ 영향평가로 인공지능의 위험을 예방하도록 하고, ‘사후적으로는’ 인공지능의 작동과 결과물에 대한 추적성을 확보하여 사고나 피해에 대한 투명성을 보장하도록 함.
    • 사전적인 영향평가의 경우 개발 단계부터 데이터 평가와 영향 평가를 수행하고 식별된 위험을 완화하는 조치를 취하도록 의무화하는 규정들임.
    • 투명성 의무는 피해자나 규제기관이 인공지능의 결함을 사후적으로 추적할 수 있도록 개발 단계부터 데이터와 알고리즘의 주요 사항에 대하여 기록하고 보관하도록 함.
    • 이러한 제도적 조치를 통해 인공지능을 제조하거나 사용하는 기업이나 기관에 법적 책임을 부과하고 피해자를 구제하고자 함.
  • 우리나라도 인공지능 규제 논의에서 이러한 국제적인 규제 동향을 주시하고 인공지능에 대한 책임성을 법률적으로 실현할 필요가 있음.