소식지인공지능

[해외정보인권] WHITE PAPER On Artificial Intelligence - A European approach to excellence and trust{/}유럽연합 인공지능 백서 – 신뢰 생태계 구축: AI규제 프레임워크

By 2020/12/23 12월 30th, 2020 No Comments
번역오류는 policy 골뱅이 jinbo.net 으로 알려주세요.
제목 : 유럽연합 인공지능 백서 – 5. 신뢰 생태계 구축 : AI규제 프레임워크
원문제목 : WHITE PAPER On Artificial Intelligence – A European approach to excellence and trust
원문링크 : https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf
일시 : 2020년 2월
작성 : EUROPEAN COMMISSION

5. 신뢰 생태계 구축: AI 규제 프레임워크 (전문 번역)

 

다른 신기술과 마찬가지로 AI의 사용은 기회와 위험 모두를 가져온다. 시민들은 알고리즘 기반 의사결정의 정보 비대칭성에 직면하였을 때 자신의 권리와 안전을 방어하는 데 무력해지는 상태를 두려워하고 있으며, 기업들은 법적 불확실성에 우려하고 있다. AI가 시민의 안전을 보호하고 기본권을 누릴 수 있도록 기여하는 반면 시민들은 AI가 의도치 않은 영향을 미치거나 심지어 악의적인 목적으로 사용될 수 있다고 우려한다. 이러한 우려는 해소될 필요가 있다. 더욱이 투자와 기술력 부족 외에도 신뢰 부족이 AI의 광범위한 활용을 저해하는 주요 요인이다.

이것이 집행위가 2018년 4월 25일 EU 전역의 연구, 혁신, AI 역량에 대한 투자 확충과 병행하여 사회경제적 측면을 다루는 AI 전략을 수립한 이유이다. 집행위는 전략을 조정하기 위해 회원국들과 조정 계획에 합의했다. 또한 집행위는 2019년 4월 ‘신뢰할 수 있는 AI 가이드라인’을 발간한 고위전문가그룹을 발족시켰다.

집행위는 고위전문가그룹 가이드라인의 7가지 주요 요구사항을 환영하는 내용의 ‘전언’을 발행했다. 이는 다음과 같다.

  • 인적 기관 및 감독
  • 기술적 견고성 및 안전성
  • 개인정보 보호 및 데이터 거버넌스
  • 투명성
  • 다양성, 차별금지 및 공정성
  • 사회·환경적 복지
  • 책무성

또한 이 가이드라인에는 기업의 실제 사용을 위한 평가 항목이 수록되어 있다. 2019년 하반기 동안 350개 이상의 기관이 이 평가 항목을 테스트하고 피드백을 보냈다. 고위전문가그룹은 이 피드백을 토대로 가이드라인을 개정하는 중이며 2020년 6월까지 이 작업을 마무리할 예정이다. 주요 피드백의 내용으로는, 가이드라인의 요구사항 다수는 이미 기존 법률 또는 규제 체제에 반영되어 있지만, 투명성, 추적성 및 인적 감독에 관한 요구사항은 여러 경제 부문의 현행 법률에서 구체적으로 다루고 있지 않다는 것이었다.

고위전문가그룹의 구속력이 없는 일련의 가이드라인에 더하여, 그리고 의장의 정치적 방침에 의거하여, 유럽의 명확한 규제 프레임워크는 AI에 대한 소비자와 기업 간의 신뢰를 쌓고, 그에 따라 기술 활용의 속도를 높일 것이다. 이러한 규제 프레임워크는 이 분야에서 유럽의 혁신 역량과 경쟁력을 촉진하기 위한 다른 조치와 일관되어야 한다. 또한, 사회적, 환경적, 경제적으로 최적의 결과를 보장하고 EU 법률, 원칙 및 가치의 준수를 보장해야 한다. 이는 특히 법집행 및 사법 영역에서 AI를 응용하는 경우에서처럼, 시민의 권리에 가장 직접적인 영향을 미칠 수 있는 영역과 관련이 있다.

AI의 개발 및 도입 기관은 이미 기본권(예: 개인정보 보호, 프라이버시, 차별금지), 소비자 보호, 제품 안전 및 책임 규율에 관한 유럽 법률의 적용을 받고 있다. 소비자들은 제품이나 시스템이 AI에 의존하든 그렇지 않든 같은 수준의 안전과 권리의 존중을 기대한다. 그러나 AI의 일부 특징(예: 불투명성)은 이 법률들의 적용과 이행을 더 어렵게 할 수 있다. 이 때문에 현행 법률이 AI의 위험성을 해소할 수 있고 효과적으로 이행될 수 있는지, 법률의 적용이 필요한지 또는 새로운 입법이 필요한지 등을 따져볼 필요가 있다.

AI가 빠르게 진화하고 있다는 사실을 감안하면, 규제 프레임워크는 장래의 개발에도 적용될 여지를 남겨야 한다. 규제 프레임워크에 대한 변경은 실현가능한 해결책이 존재하는 명확하게 확인된 문제로 제한되어야 한다.

회원국들은 현재 공통적인 유럽 프레임워크가 부재하다는 사실을 지적하고 있다. 독일 데이터윤리위원회는 가장 무해한 AI 시스템에 대한 무규제로부터 가장 위험한 AI 시스템에 대한 완전한 금지까지 이르는 5단계 위험 기반 규제 체제를 요청했다. 덴마크는 최근 데이터 윤리 봉인(Data Ethics Seal)에 대한 프로토타입을 출시했다. 몰타는 AI 자율인증제를 도입했다. EU가 EU 전체에 걸친 접근법을 제공하지 못한다면, 내부 시장에서 분열될 실질적인 위험이 있으며, 이는 AI에 대한 신뢰, 법적 확실성 및 시장 활용의 목표를 훼손할 것이다.

신뢰할 수 있는 AI에 대한 유럽의 확고한 규제 프레임워크는 모든 유럽 시민을 보호하고, AI의 장래 개발과 활용은 물론, 유럽의 산업 기반을 강화하기 위해 마찰없는 내부 시장을 창출하는 데 도움이 될 것이다.

 

A. 문제 정의

 

AI는 제품과 공정을 더 안전하게 만드는 등 많은 이익을 낼 수 있지만, 위해를 끼칠 수도 있다. 이 위해성은 물질적(생명 손상, 재산 손실 등 개인의 안전과 건강 문제)이거나 비물질적(사생활 손상, 표현의 자유 제한, 인간 존엄성, 고용 차별 등의 문제)일 수 있으며, 광범위한 위험성과 관련될 수 있다. 규제 프레임워크는 잠재적 위해성의 다양한 위험성, 특히 가장 중대한 위험성을 최소화하는 데 주력해야 한다.

AI의 이용과 관련된 주요한 위험성은 기본권(개인정보와 프라이버시 보호 및 차별금지 등)을 보호하기 위해 설계된 규율의 적용과 관한 것이자, 안전 및 책임 관련 문제에 관한 것이다.

 

개인정보와 프라이버시 보호 및 차별금지 등 기본권 측면에서 위험성

AI의 사용은 EU가 수립한 가치에 영향을 미칠 수 있으며, 표현의 자유, 집회의 자유, 인간의 존엄성, 성별·인종 또는 민족적 기원·종교 또는 신념·장애·연령 또는 성적 지향에 따른 차별금지를 포함하여, 특정 영역에서는 소비자 보호뿐만 아니라 개인정보 및 사생활 보호, 효과적인 사법적 구제와 공정한 재판을 받을 권리 등 기본권에 대한 침해로 이어질 수 있다. 이러한 위험성은 AI 시스템의 전체적인 설계적 결함(인적 감독에 관한 문제 포함)에서 기인했을 수도 있고, 가능한 편견을 교정하지 않고 데이터를 사용하는 경우(예: 시스템이 여성과 관련하여 차선적인 결과를 이끌어내는 남성의 데이터를 주되게, 또는 유일하게 사용하여 훈련된 경우)에서 기인했을 수 있다.

AI는 이전에는 인간만이 할 수 있었던 많은 기능을 수행할 수 있다. 그 결과 시민과 법인은 AI 시스템에 의해 취해졌거나 또는 AI 시스템의 지원을 받아 취해진 조치와 결정에 점점 더 종속될 것이며, 이는 때때로 이해하기 어려울 수 있으며 필요한 경우에도 효과적으로 문제를 제기하는 것이 어려워질 수 있다. 게다가, AI가 사람들의 일상 습관을 추적하고 분석할 가능성이 높아졌다. 예를 들어, 각국 기관이나 여타 기구들이 대량 감시를 위해 EU 개인정보 보호 및 다른 규율들을 위반하며 AI를 사용하거나, 회사가 직원들의 행동을 관찰하기 위해 AI를 사용할 잠재적 위험성이 있다. 대량의 데이터를 분석하고 그 관계를 식별함으로써, AI는 사람에 대한 데이터를 재추적하고 탈익명화하는 데 사용될 수 있으며, 그 자체로는 개인정보를 포함하지 않는 데이터셋에 대해서도 개인정보 보호 측면에서 새로운 위험성을 유발할 수 있다. AI는 또한 온라인 사업자들이 사용자들에게 정보의 우선순위를 정해주고 내용을 규제할 때도 사용된다. 처리된 데이터, 애플리케이션의 설계 방식 및 인적 개입의 범위는 표현의 자유, 개인정보 보호, 프라이버시 및 정치적 자유에 영향을 미칠 수 있다.

특정 AI 알고리즘이 범죄 재범 예측에 악용될 경우, 여성 대 남성 또는 내국인 대 외국인에 대해 다른 재범 예측 가능성을 표시하면서 성별과 인종적 편향성을 드러낼 수 있다.

*출처: Tolan S., Miron M., Gomez E. and Castillo C. “Why Machine Learning May Lead to Unfairness: Evidence from Risk Assessment for Juvenile Justice in Catalonia”, Best Paper Award, International Conference on AI and Law, 2019

얼굴 분석에 사용되는 특정 AI 프로그램의 경우, 피부색이 밝은 남성의 성별을 결정하는 데는 낮은 오류율을 보였지만 피부색이 어두운 여성의 성별을 결정하는 데는 높은 오류율을 보여주면서 성별과 인종적 편향성을 드러냈다.

*출처: Joy Buolamwini, Timnit Gebru; Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018.

 

편견과 차별은 모든 사회경제 활동에 내재된 위험이다. 인간의 의사결정은 실수나 편견에 면역이 되어 있지 않다. 그러나 같은 편견이 AI에서 나타날 때, 인간 행동을 통제하는 사회통제 메커니즘 없이 많은 사람들에게 영향을 주고 차별할 수 있다는 점에서 훨씬 더 큰 영향을 미칠 수 있다. 이는 AI 시스템이 구동 중에 ‘학습’할 때도 발생할 수 있다.

그러한 경우, 설계 단계에서 결과를 예방하거나 예측할 수 없다면, 위험성은 시스템 본래의 설계적 결함에서 기인하는 것이 아니라 시스템이 대규모 데이터셋에서 식별하는 상관관계나 패턴에서 실제적인 영향을 받는다.

불투명성(‘블랙박스 효과’), 복잡성, 예측 불가능성 및 부분적으로 자율적인 작동을 비롯해 여러 AI 기술의 특성들은, 기본권을 보호하기 위한 기존 EU 법률상 규율들을 준수하는지 검증하는 것을 어렵게 만들 수 있으며, 효과적으로 이행하는 것을 방해할 수도 있다. 집행 당국과 피해자들은 AI가 개입된 상태에서 해당 결정들이 어떻게 내려졌는지 검증하는 수단이 부족할 수 있고, 그 결과 관련 규정들이 준수되었는지 여부도 검증하기 어려울 수 있다. 개인과 법인은 그러한 결정들이 자신에게 부정적인 영향을 미칠 수 있는 상황에서 효과적인 사법 수단에 접근하는 데 어려움을 겪을 수 있다.

 

안전 및 책임 체제의 효과적인 기능 측면에서 위험성

AI 기술이 제품과 서비스에 내장되어 있을 때 사용자에게 안전상 새로운 위험성이 나타날 수 있다. 예를 들어, 물체 인식 기술의 결함으로 인해, 자율주행차는 도로에서 물체를 잘못 식별하여 부상과 물질적 손해가 수반되는 사고를 일으킬 수 있다. 기본권에 대한 위험성과 마찬가지로, 이러한 위험성은 AI 기술의 설계상 결함에 의해 발생될 수 있으며, 이는 데이터의 가용성 및 품질상의 문제 또는 기계 학습에서 기인한 기타 문제와 관련되어 있다. 이러한 위험성의 일부는 AI에 의존하는 제품과 서비스에 국한되지 않지만, AI의 사용은 이러한 위험성을 증가시키거나 악화시킬 수 있다.

이러한 위험을 다루는 명확한 안전 규정의 부족은, 관련 개인에 대한 위험성과 별도로 EU에서 AI와 관련된 제품을 마케팅하는 기업에게 법적 불확실성을 야기할 수 있다. 시장 감시 및 집행 당국은 자신들이 개입할 수 있는지 여부에 대해 불분명한 상황에 처할 수 있는데, 이는 이들이 시스템을 검사하기 위한 집행권을 부여받지 못했거나 적절한 기술적 역량을 보유하지 못했기 때문이다. 따라서 법적 불확실성은 전반적인 안전 수준을 떨어뜨리고 유럽 기업의 경쟁력을 떨어뜨릴 수 있다.

안전 위험이 현실화될 경우, 위에서 언급한 AI 기술의 특징과 명확한 요구사항의 부족으로 인해 AI 시스템이 개입하여 내려진 문제적일 수 있는 의사결정을 역추적하는 것이 어려워진다. 이는 결국 피해를 입은 사람이 현행 EU 및 국가 책임 법률에 따라 보상을 받는 것을 어렵게 할 수 있다.

제품 책임 지침에 따르면 제조업체는 제품 결함으로 인한 손상에 대해 책임을 진다. 다만 자율주행차 등 AI 기반 시스템의 경우, 제품의 하자와 발생한 피해 간에 인과관계가 있다는 점을 입증하기 어려울 수 있다. 또한 제품의 사이버 보안상의 취약점으로 인한 문제 등 특정 유형의 결함의 경우, 제품 책임 지침이 적용되는 방법과 정도 측면에서 약간의 불확실성이 있다.

따라서, 기본권과 관련하여 위에서 언급한 바 대로 AI 시스템에 의해 내려진 문제적일 수 있는 결정을 역추적하는 어려움은 안전 및 책임 관련 문제에도 동일하게 적용된다. 예를 들어, 위해를 입은 사람이 법정에서 사건을 구성하는 데 필요한 증거에 효과적으로 접근하지 못할 수 있으며, 전통적인 기술로 인해 손해를 입은 상황에 비해 효과적으로 시정될 가능성이 더 적을 수 있다. AI의 사용이 더욱 확산되면 이러한 위험성이 증가할 것이다.

 

B. AI 관련 현행 EU 법률 체계의 조정 가능성

광범위한 현행 EU 제품 안전 및 책임 법률은 부문별 규율을 포함하고 회원국 국내법에 의해 더욱 보완되는데, 새로 부상하는 다수의 AI 애플리케이션과도 관련이 있으며 잠정적으로 적용할 수 있다.

기본권과 소비자 권리의 보호와 관련하여, EU의 법률 체계는 인종 평등 지침, 고용 및 직업에서 동등한 처우에 관한 지침, 재화 및 서비스에 대한 접근과 고용에서 남녀 동등 처우에 관한 지침, 일련의 소비자 보호 규정들은 물론, GDPR로 대표되는 개인정보 보호 및 프라이버시에 대한 규정들 및 법집행기관 개인정보 보호 지침 등 기타 부문별 개인정보 보호 법률을 아우른다. 또 2025년부터는 유럽접근성법에 규정된 상품 및 서비스에 대한 접근성 요구사항에 관한 규율들이 적용된다. 또한, 금융 서비스, 이주, 혹은 온라인사업자의 책임에 대한 분야를 비롯해 다른 EU 법률을 시행할 때 기본권을 존중할 필요가 있다.

EU 법률은 AI의 개입 여부와 관계없이 원칙적으로 충분히 적용 가능한 상태이지만, 법률이 AI 시스템이 창출하는 위험성을 해소하기 위해 적절히 시행될 수 있는지, 또는 특정 법률 수단에 대한 조정이 필요한지 여부에 대해 평가하는 것이 중요하다.

예를 들어, 경제 행위자는 소비자를 보호하는 기존 규정에 대한 AI의 준수 문제에 대해 전적으로 책임을 지며, 알고리즘이 기존 규정을 위반하여 소비자 행동을 부당하게 이용하는 것은 허용되지 않고 위반 행위도 그에 준하여 처벌되어야 한다.

집행위는 다음과 같은 위험과 상황에 대처하기 위해 법률 체계를 개선할 수 있다는 의견이다.

  • 기존 EU 법률 및 회원국 국내법의 효과적인 적용 및 집행: AI의 주요 특성은 EU 법률 및 회원국 국내법의 적절한 적용과 시행을 보장하는 데 있어 문제를 야기한다. 투명성 부족(AI의 불투명성) 때문에 기본권 보호, 속성책임, 배상청구 조건 충족 등 법 위반 가능성을 확인하고 입증하기 어렵다. 따라서 효과적인 적용과 집행을 보장하기 위해서는, 예를 들어 본 백서에 수반되는 보고서에 추가적으로 설명된 책임에 관한 분야를 비롯해 특정 분야의 현행 법률을 조정하거나 명확히 할 필요가 있을 수 있다.
  • 현행 EU 법률의 범위 제한: EU 제품안전법의 핵심적인 초점은 제품을 시장에 출시하는 경우에 대한 것이다. EU 제품안전법에서 소프트웨어는 최종 제품의 일부인 경우 관련 제품안전 규칙을 준수해야 하지만, 독립형 소프트웨어가 명시적 규칙을 가진 일부 부문 바깥에서 EU 제품안전법의 적용을 받는지 여부는 열린 질문이다. 현재 시행 중인 일반 EU 안전법은 서비스가 아닌 상품에 적용되며, 따라서 원칙적으로 AI 기술(예: 보건의료 서비스, 금융 서비스, 운송 서비스)에 기반한 서비스에는 적용되지 않는다.
  • AI 시스템 기능 변경: AI를 비롯해 소프트웨어를 제품으로 통합하면 그 생애주기 동안 해당 제품과 시스템의 기능을 수정할 수 있다. 이것은 특히 빈번한 소프트웨어 업데이트가 필요하거나 기계 학습에 의존하는 시스템의 경우에 해당된다. 이러한 특징들은 시스템을 시장에 내놓았을 때 없었던 새로운 위험을 야기할 수 있다. 이러한 위험은 시장에 출시했을 때 나타나는 안전 위험에 주로 초점을 맞춘 현행 법률에서 적절히 다루고 있지 않다.
  • 공급망에서 서로 다른 경제 행위자 간의 책임 배분에 관한 불확실성: 일반적으로 제품 안전성에 관한 EU 법률은 시장에 배치된 제품의 생산자에게 책임을 배분하는데, 이는 AI 시스템 등 모든 구성 요소를 포함한다. 그러나 예를 들어 생산자가 아닌 측에서 제품을 시장에 내놓은 후 AI가 추가되면 이 규칙이 불분명해질 수 있다. 또한, EU 제품책임법은 생산자의 책임을 규정하고, 공급망에서 다른 사람의 책임을 통제하는 것은 국내 책임법의 역할로 남겨두었다.
  • 안전 개념의 변화: 제품과 서비스에서 AI를 사용하는 것은 EU 법률이 현재 명시적으로 다루지 않는 위험을 야기할 수 있다. 이러한 위험들은 사이버 위협, 개인 보안 위험(예: 가전제품과 같은 AI의 새로운 애플리케이션과 연계될 경우), 연결 손실에 따른 위험 등과 연결될 수 있다. 이러한 위험은 제품을 시장에 출시할 때 나타나거나 제품을 사용하는 동안 소프트웨어 업데이트 또는 자가 학습의 결과로 발생할 수 있다. AI 위협 요소 평가에 EU 사이버보안청(ENISA)의 경험을 활용하는 등, EU는 AI 애플리케이션과 연계된 잠재적 위험에 대해 증거 기반을 강화할 수 있는 관할 수단을 최대한 활용해야 한다.

앞에서 지적했듯이, 몇몇 회원국들은 이미 AI로 인해 야기된 난제를 해결하기 위해 국내 입법이라는 선택을 모색하고 있다. 이는 단일 시장이 분열될 수 있는 위험을 높인다. 국가간 규정이 엇갈리면 단일 시장에서 AI 시스템을 판매·운용하려는 기업에 장벽이 생길 가능성이 높다. EU 수준에서 공통적인 접근방식을 보장하면 유럽 기업들이 단일 시장에 대한 원활한 접근으로부터 이익을 얻고 글로벌 시장에서의 경쟁력을 지원받을 수 있을 것이다.

인공지능, 사물인터넷, 로봇공학이 갖는 안전과 책임의 의미에 관한 보고서

본 백서와 함께 제공되는 보고서는 관련 법적 체제를 분석하였다. 보고서는 AI 시스템 및 기타 디지털 기술에 의해 야기되는 특정 위험에 대하여 이 체제들을 적용할 때 나타나는 불확실성을 확인하였다.

보고서는 현행 제품안전법이 이미 제품 사용에 따라 제품에서 발생하는 모든 종류의 위험으로부터 안전을 보호하는 확장된 개념을 지지하고 있다고 결론내렸다. 그러나 새로 부상하는 디지털 기술이 드러내는 새로운 위험을 명시적으로 다루는 조항이 도입되면 보다 법적 확실성을 제공할 수 있을 것이다.

  • 생애주기 동안 특정 AI 시스템의 자율적 작동은 안전에 영향을 미치는 중요한 제품 변경을 수반할 수 있으며, 이는 새로운 위험성 평가를 필요로 할 수 있다. 또한 제품 설계서부터 AI 제품 및 시스템의 생애주기 전체에 대한 안전장치로서 인적 감독이 필요할 수 있다.
  • 생산자에 대한 명시적 의무는 적절할시 사용자의 정신적 안전 위험과 관련해서도 고려될 수 있다(예: 휴머노이드 로봇과의 협업).
  • 조합 제품안전법은 AI 제품 및 시스템 사용 전반에 걸쳐 데이터 품질을 유지할수 있는 메커니즘뿐만 아니라 설계 단계에서 결함 있는 데이터의 안전성 위협을 해결하는 특정 요구사항을 규정할 수 있다.
  • 알고리즘에 기반한 시스템의 불투명성은 투명성 요구사항을 통해 해결할 수 있다.
  • 독립형 소프트웨어가 있는 그대로 시장에 배치되었거나 시장에 배치된 후 제품에 다운로드되었는데 안전성에 영향을 미치는 경우, 기존 규칙을 조정하고 명확히 할 필요가 있을 수 있다.
  • 신기술 공급망의 복잡성이 증가함에 따라, 공급망 내 경제 행위자와 사용자 간의 협력을 특별히 요청하는 조항은 법적 확실성을 제공할 수 있다.

AI, 사물인터넷, 로봇공학과 같은 새로운 디지털 기술의 특성은 책임 프레임워크의 측면에서 문제를 야기할 수 있고 그 효과를 감소시킬 수 있다. 이러한 특성들 중 일부는 사람에게 돌아가 그 피해를 추적하는 것을 어렵게 만들 수 있으며, 이는 대부분의 국내 규율에 따라 결함에 기반해 청구를 제기할 때 필요한 것들이다. 이는 피해자 비용을 상당히 증가시킬 수 있으며, 생산자 외 타인에 대한 책임 청구가 이루어지거나 입증하기 어려울 수 있다는 것을 의미한다.

  • AI 시스템의 개입으로 피해를 입은 사람은 다른 기술로 피해를 입은 사람과 동일한 수준의 보호를 누릴 필요가 있는 한편으로, 기술혁신은 계속 발전할 수 있도록 해야 한다.
  • 제품 책임 지침에 대한 수정 가능성 및 국내 책임법들의 추가적인 표적형 조정 가능성을 비롯하여, 이상의 목적을 보장하기 위한 모든 선택지들을 신중하게 평가해야 한다. 예를 들어, 집행위는 AI 애플리케이션 운영으로 인한 피해에 대해 국내책임법에서 요구하는 입증책임을 적용함으로써 복잡성의 결과를 완화하는 것이 필요한지 여부와 그 정도에 대해 생각해보고 있다.

집행위는 위와 같은 논의로부터, 기존 법률에 대한 조정 가능성과 별도로, EU의 법적 체제가 현재 및 예상되는 기술과 상업적 발전에 부합하도록 AI에 특화된 새로운 법률이 필요할 수 있다고 결론짓는다.

 

C. 미래 EU 규제 프레임워크의 범위

향후 AI 지능에 대한 구체적인 규제 프레임워크의 핵심 쟁점은 적용 범위를 결정하는 것이다. 이 규제 프레임워크는 AI에 의존하는 제품과 서비스에 적용된다는 것이 작업 가정이다. 따라서 이 백서의 목적뿐만 아니라 미래의 정책 수립을 위해 AI가 명확하게 정의되어야 한다.

집행위는 “유럽을 위한 AI”에 관한 전언에서 AI에 대한 첫 정의를 내렸다. 이 정의는 고위전문가그룹에 의해 더욱 다듬어졌다.

어떤 새로운 법적 수단에서든, AI의 정의는 필요한 법적 확실성을 제공할 수 있을 만큼 정확하면서 기술적 진보를 수용할 수 있을 만큼 충분히 융통성이 있어야 할 것이다.

예를 들어 자율주행에서 알고리즘은, 차량이 특정 목적지에 도달하기 위해 어떤 방향, 가속 및 속도를 취해야 하는지 유도하기 위해 자동차의 데이터(속도, 엔진 소모, 충격 흡수기 등)와 차량 주변 모든 환경을 스캔하는 센서의 데이터(도로, 표지판, 다른 차량, 보행자 등)를 실시간으로 사용한다. 관찰된 데이터를 바탕으로 알고리즘은 도로의 상황과 다른 운전자의 행동을 포함한 외부 조건에 적응하여 가장 편안하고 안전한 운행을 끌어낸다.

본 백서의 취지는 물론 향후 정책에 대한 논의 가능성 측면에서 AI를 구성하는 주요 요소를 명확히 하는 것이 중요해 보이는데, 이는 「데이터」와 「알고리즘」인 것이다. AI는 하드웨어에 통합될 수 있다. AI의 서브셋을 구성하는 머신러닝 기법의 경우, 주어진 목표를 달성하는 데 필요한 행동을 결정하기 위해 데이터셋을 기반으로 특정 패턴을 추론하도록 알고리즘을 교육한다. 알고리즘은 사용 중일 때 계속 학습할 수 있다. AI 기반 제품은 환경을 인지하고 사전에 정해진 지침을 따르지 않고 자율적으로 작동할 수 있지만, 이들의 작동은 대부분 개발자들에 의해 대체로 정의되고 제약된다. 인간은 AI 시스템이 최적화해야 할 목표를 결정하고 프로그래밍한다.

EU는 특히 소비자를 보호하고 불공정한 상업 관행에 대응하며 개인정보와 사생활을 보호하기 위한 엄격한 법률 체계를 시행하고 있다. 또한 역내 조약에는 특정 부문(예: 의료, 운송)에 대한 특별 규정들이 포함되어 있다. 디지털 변환과 AI 사용을 반영하기 위해 이들 EU 법률 체계에 어느 정도 업데이트가 필요할 수 있지만, AI에 대해서도 현행 조항들이 계속 적용될 것이다(섹션 B 참조). 따라서 기존의 수평적 또는 부문적 법률(예: 의료기기 관련 법률, 운송 시스템 관련 법률)에서 이미 다루고 있는 측면은 계속하여 이들 법률이 적용될 것이다.

원칙적으로 AI에 대한 새로운 규제 프레임워크는 목표를 달성하는 데 효과적이면서 중소기업에 부담이 될 만큼 지나치게 지시적이지 않아야 한다. 이 균형을 맞추기 위해, 집행위는 위험 기반 접근법을 따라야 한다고 생각한다.

규제 개입이 비례적일 수 있으려면 위험 기반 접근법이 중요하다. 다만, 서로 다른 AI 애플리케이션을 구별할 수 있는 명확한 기준이 필요하고 특히 이들이 ‘고위험’인지 여부에 대한 질의와 관련해 더욱 그러하다. 고위험 AI 애플리케이션이 무엇인지에 대한 결정은 명확하고 쉽게 이해할 수 있어야 하며 모든 관련 당사자에게 적용할 수 있어야 한다. 그러나 설령 AI 애플리케이션이 고위험군으로 분류되지 않더라도 전적으로 기존 EU 규정의 적용을 받는다.

집행위는 AI 애플리케이션의 분야와 의도된 용도 모두에서 안전, 소비자 권리 및 기본권의 보호에 있어 상당한 위험을 수반하는지 여부를 고려하여, 문제가 있는 경우 해당 AI 애플리케이션을 일반적으로 고위험으로 간주해야 한다는 의견이다. 구체적으로는 AI 애플리케이션이 다음의 두 가지 누적적 기준을 충족할 경우 고위험으로 간주해야 한다.

  • 첫째로, 일반적으로 수행되는 활동의 특성을 고려할 때 상당한 위험이 발생할 것으로 예상되는 분야에 해당 AI 애플리케이션이 배치되는 경우. 이 첫 번째 기준은 일반적으로 말해서 위험이 가장 발생할 가능성이 높다고 판단되는 영역을 대상으로 규제가 개입하도록 한다. 해당 부문은 새 규제 프레임워크에 구체적이고 철저하게 열거되어야 한다. 예를 들어, 의료, 운송, 에너지 및 공공 부문이 이에 해당할 것이다. 열거 목록은 관련 개발 기능이 실행되는 경우 정기적으로 검토 및 수정되어야 한다.
  • 둘째, 해당 분야 문제의 AI 애플리케이션이 추가적으로 상당한 위험이 발생할 가능성이 높은 방식으로 사용되는 경우. 이 두 번째 기준은 선택된 분야에서 사용되는 모든 AI가 반드시 상당한 위험을 수반하는 것은 아니라는 인식을 반영한다. 예를 들어, 보건의료는 일반적으로 관련 부문일 수 있지만, 병원 예약시스템의 결함은 일반적으로 입법적 개입을 정당화하는 상당한 위험을 야기하지 않을 것이다. 특정 용도의 위험 수준 평가는 관련 당사자들에 미치는 영향에 기초할 수 있다. 예를 들어, 개인이나 기업의 권리에 대해 법적인 영향 또는 유사하게 상당한 영향을 미치는 AI 애플리케이션을 사용하거나, 부상, 사망 또는 상당한 물질적•비물질적 손상을 초래하는 AI 애플리케이션을 사용하거나, 개인이나 법인이 합리적으로 피할 수 없는 영향을 미치는 AI 애플리케이션을 사용하는 경우 등이 있다.

두 가지 누적 기준을 적용하면 규제 프레임워크의 적용범위의 대상이 분명하고 법적 확실성을 보장할 수 있다. AI에 관한 새로운 규제 프레임워크에 포함된 의무적 요구사항(아래 섹션 D 참조)은 원칙적으로 이 두 가지 누적 기준에 따라 고위험으로 확인된 애플리케이션에만 적용된다.

전술한 사항에도 불구하고, 그 위험성으로 인해 특정 목적의 AI 애플리케이션의 사용을 위험성이 높은 것으로 간주하는 예외적인 사례도 있을 수 있다. 이 경우 분야를 불문하고 다음 요구사항이 여전히 적용될 것이다. 개괄적으로 다음과 같은 특별한 경우를 생각해볼 수 있다.

  • 개인과 EU 조약에서 고용 평등의 중요성에 비추어 볼 때, 채용 과정과 근로자의 권리에 영향을 미치는 상황에서 AI 애플리케이션의 사용은 항상 “고위험”으로 간주될 수 있으며, 따라서 아래 요구사항이 항상 적용될 것이다. 소비자 권리에 영향을 미치는 경우 더 구체적인 적용이 고려될 수 있다.
  • 원격 생체인식 및 기타 침입 감시 기술 목적으로 AI 애플리케이션을 사용하는 것은 항상 “고위험”으로 간주되며, 따라서 아래 요구사항이 항상 적용된다.

 

D. 요구사항의 유형 

향후 AI에 대한 규제 프레임워크를 설계할 때 관련 행위자에게 부과할 법적 의무 요구사항의 유형을 결정해야 할 것이다. 이러한 요구사항은 표준을 통해 추가적으로 구체화될 수 있다. 위의 섹션 C에서 언급한 바와 같이, 기존의 법률 규제에 더하여, 이들 요구사항은 고위험 AI 애플리케이션에만 적용되므로 규제 개입의 대상을 집중하고 비례적인 규제를 보장할 수 있다.

고위전문가그룹 가이드라인 및 앞서 설명한 사항을 고려하여, 고위험 AI 애플리케이션의 요구사항은 다음과 같은 주요 기능으로 구성될 수 있으며, 더 자세한 사항은 아래 하위 절에서 자세히 설명한다.

  • 훈련용 데이터
  • 데이터 및 기록 보존
  • 제공해야 할 정보
  • 견고성 및 정확성
  • 인적 감독
  • 원격 생체인식 목적 사용 등 특정 AI 애플리케이션에 대한 특별 요구사항

법적 확실성을 보장하기 위해 이러한 요구사항은 추가적으로 구체화되어 이를 준수해야 하는 모든 행위자에게 명확한 기준이 규정될 것이다.

 

a) 훈련용 데이터

EU의 가치와 규칙, 특히 EU 법률에서 도출되는 시민의 권리를 증진하고 강화하며 옹호하는 것이 그 어느 때보다 중요하다. 이러한 노력은 의심할 여지 없이 이 백서에서 검토 중이고 EU에서 시판되고 사용될 고위험 AI 애플리케이션에게도 미친다.

앞서 논의한 것처럼 데이터가 없으면 AI도 없다. 많은 AI 시스템의 기능, 그리고 이들이 이끌어낼수 있는 작동과 결정들은 시스템이 훈련하는 데 사용된 데이터셋에 매우 많이 의존한다. 따라서 AI 시스템 훈련에 사용되는 데이터에 관한 한, 특히 안전 및 기본권 보호를 위한 기존 법률 규정들과 관련하여 EU의 가치와 규율들이 존중되도록 필요한 조치를 취해야 한다. AI 시스템 훈련에 사용되는 데이터셋과 관련해 다음과 같은 요구사항을 생각해볼 수 있다.

  • AI 시스템에 기반한 제품이나 서비스의 후속 사용이 해당 EU 안전 규칙(기존 및 가능한 보완 규칙)에 설정된 표준을 충족하는 등, 안전에 대한 합리적인 보장을 제공하려는 목적의 요구사항. 예를 들어, AI 시스템이 위험한 상황을 방지하기 위해 필요한 모든 관련 시나리오를 포괄하고 충분히 광범위한 데이터셋에 기반해 훈련하도록 하는 요구사항
  • 이러한 AI 시스템의 후속 사용이 금지된 차별을 수반하는 결과로 이어지지 않도록 합리적인 조치를 취하기 위한 요구사항. 이러한 요구사항은 특히 젠더, 민족성 및 기타 금지된 차별과 관련된 모든 차원이 해당 데이터셋에 적절히 반영되도록 충분히 대표적인 데이터셋을 사용해야 할 특정한 의무를 수반할 수 있다.
  • AI 탑재 제품과 서비스를 사용하는 동안 사생활과 개인정보를 적절히 보호하기 위한 요구사항. GDPR과 법집행 지침이 각각의 범위에 해당하는 문제에 대해서 규제한다.

 

b) 기록 및 데이터의 보존

많은 AI 시스템의 복잡성과 불투명성, 그리고 해당 분야 규칙의 준수를 효과적으로 검증하고 시행하는 것과 관련된 어려움을 비롯해 여러 요소들을 고려해 볼 때, 알고리즘 프로그래밍과 관련된 기록, 고위험 AI 시스템 훈련에 사용되는 데이터, 특정한 경우에 데이터 자체의 보존에 대한 요구사항이 필요하다. 이러한 요구사항들은 기본적으로 문제가 될 수 있는 AI 시스템 기반 조치나 결정을 추적하고 검증할 수 있도록 한다. 이는 감독 및 시행을 용이하게 할 뿐만 아니라, 관련 경제 행위자들이 그러한 규칙을 존중해야 할 필요성에 대해 초기 단계서부터 고려하도록 동기유발을 강화할 수 있다.

이 목적을 위해 규제 프레임워크는 다음을 지켜야 한다고 규정할 수 있다.

  • AI 시스템의 훈련 및 테스트에 사용된 데이터셋에 대한 정확한 기록(주요 특성 및 데이터셋 선택 절차에 대한 서술 포함)
  • 정당한 경우, 데이터셋 그 자체
  • 시스템의 구축/테스트/검증에 사용된 프로그래밍 및 훈련 방법론에 대한 문서화(관련성이 있는 경우 안전성 및 금지된 차별을 초래할 수 있는 편향의 방지와 관련된 사항 포함)

관련 법률을 효과적으로 이행하기 위해 기록, 문서 및 관련된 경우 데이터셋까지 제한적이고 합리적인 기간 동안 보존해야 한다. 특히 관할 당국에서 시험이나 검사에 대한 요청이 있을 경우 이용 가능하도록 조치해야 한다. 필요한 경우 영업비밀과 같은 기밀정보가 보호될 수 있도록 협의해야 한다.

 

c) 정보제공

위의 지점 c)에서 논의된 기록 보존 요구사항을 넘어 투명성 또한 요구된다. 특히 AI의 책임 있는 사용을 촉진하고, 신뢰를 구축하고, 필요한 경우 시정을 용이하게 하는 등 추구하는 목표를 달성하기 위해서는 고위험 AI 시스템 사용에 대해 사전 예방적 방식으로 적절한 정보를 제공하는 것이 중요하다.

따라서 다음과 같은 요구사항을 고려할 수 있다.

  • AI 시스템의 역량과 한계, 특히 시스템이 의도한 목적, 의도한 대로 기능할 것으로 기대할 수 있는 조건 및 특정 목적을 달성하는 데 예상되는 정확도 수준에 대해 명확한 정보가 제공되도록 보장한다. 이 정보는 특히 시스템의 출시자에게 중요하지만, 관할 당국 및 영향을 받는 당사자와도 관련이 있을 수 있다.
  • 이와는 별도로, 시민들이 사람이 아니라 AI 시스템과 상호작용할 때 시민들에게 이를 명확히 알려야 한다. EU 개인정보 보호 법률은 이미 이러한 종류의 특정 규칙을 포함하고 있지만, 전술한 목적을 달성하기 위해 추가 요구사항이 요구될 수 있다. 그렇다면 불필요한 부담은 피해야 한다. 따라서, 예를 들어, 시민들이 AI 시스템과 상호작용하고 있다는 것이 즉시 명백해지는 상황에서는 그러한 정보를 제공할 필요가 없다. 더 나아가 제공된 정보가 객관적이고 간결하며 쉽게 이해할 수 있어야 하는 것이 중요하다. 정보가 제공되는 방식은 특정 상황에 맞게 조정되어야 한다.

 

d) 견고성 및 정확성

AI 시스템, 그리고 확실히 고위험 AI 애플리케이션은 신뢰할 수 있을 만큼 기술적으로 견고하고 정확해야 한다. 즉, 그러한 시스템은 책임감 있는 방식으로 개발되어야 하며, 발생 가능한 위험에 대한 사전적이고 적절한 고려가 있어야 한다. 이들의 개발과 기능은 AI 시스템이 의도한 대로 확실하게 작동해야 한다. 위해가 발생할 위험을 최소화하기 위해 모든 합리적인 조치를 취해야 한다.

따라서 다음과 같은 요소를 고려할 수 있다.

  • 모든 생애주기 단계에서 AI 시스템이 견고하고 정확하도록 보장하거나 최소 자기 정확성의 수준을 올바르게 반영하도록 보장하는 요구사항
  • 결과를 재현할 수 있도록 보장하는 요구사항
  • AI 시스템이 모든 생애주기 단계에서 오류 또는 불일치를 적절히 처리할 수 있도록 보장하는 요구사항
  • AI 시스템이 공개적인 공격은 물론 데이터 또는 알고리즘 자체를 조작하려는 보다 교묘한 시도 모두에 대해 탄력성을 갖도록 보장하고, 그러한 경우 완화 조치를 취하도록 보장하는 요구사항

 

e) 인적 감독

인적 감독은 AI 시스템이 인간의 자율성을 훼손하거나 다른 부작용을 일으키지 않도록 보장하는 데 도움이 된다. 신뢰할 수 있고 윤리적이며 인간 중심적인 AI를 위한 목표는 고위험 AI 애플리케이션과 관련하여 인간의 적절한 관여를 보장해야만 달성할 수 있다.

본 백서에서 특별 법률 체제에 대해 고려하는 AI 애플리케이션은 모두 고위험으로 간주되지만, 인간 감독의 적절한 유형과 정도는 사례마다 다를 수 있다. 특히 시스템의 의도된 사용과 해당 사용이 당사자 시민과 법인에 미칠 수 있는 영향에 따라 달라져야 한다. 또한 AI 시스템이 개인정보를 처리할 때 GDPR이 확립한 법적 권리에 대한 침해도 없어야 한다. 예를 들어, 인적 감독에는 다음과 같은 경우가 포함될 수 있다.

  • AI 시스템의 결과물은 사전에 사람에 의해 검토되고 검증되지 않은 경우 효력이 없음 (예: 사회보장급여 신청에 대한 거부는 사람에 한하여 할 수 있음)
  • AI 시스템의 결과물은 즉시 효력이 발생하지만, 사후 인적 개입이 보장됨 (예: 신용 카드 신청에 대한 거부는 AI 시스템으로 처리할 수 있지만, 사후 인적 검토가 가능해야 함)
  • AI 시스템에 대한 작동 중 모니터링 및 실시간 개입, 비활성화 기능 (예: 무인 자동차에서 사람이 자동차 운행이 안전하지 않다고 판단할 때 정지 버튼이나 절차를 사용할 수 있음)
  • 설계 단계에서, AI 시스템에 작동 제약을 가함 (예: 무인 자동차는 가시성이 저하되어 센서 신뢰도가 낮아진 특정 조건에서 작동을 중지하거나 어떤 조건에서도 선행 차량과 일정 거리를 유지해야 함)

 

f) 원격 생체인식에 대한 구체적인 요구사항 

예를 들어 공공장소에 얼굴 인식 기능을 배치하는 등 원격 식별 목적으로 생체인식 데이터를 수집하고 사용하는 것은 기본권에 특정한 위험을 수반한다. 원격 생체인식 AI 시스템 사용이 기본권에 미치는 함의는 사용 목적, 상황, 범위에 따라 상당히 달라질 수 있다.

EU 개인정보 보호법은 특정 조건을 제외하고는 자연인을 고유하게 식별하려는 목적으로 생체인식 정보를 처리하는 것을 원칙적으로 금지하고 있다. GDPR 하에서 구체적으로는, 그러한 처리가 몇 가지 근거에 의해서만 이루어질 수 있는데, 주된 경우는 상당한 공익상의 이유가 있을 경우이다. 이 경우, 처리는 비례성, 개인정보 보호권의 본질에 대한 존중 및 적절한 안전조치에 대한 요건에 따라 EU 법률 및 회원국 국내법에 기반하여 이루어져야 한다. 법집행기관 지침에 따르면, 이러한 처리에 대한 엄격한 필요성이 있어야 하며, 원칙적으로 적절한 안전조치 뿐만 아니라 EU 법률 및 회원국 국내법에 의한 허가도 있어야 한다. 자연인을 고유하게 식별할 목적으로 생체인식 정보를 처리하는 것은 EU 법률에 규정된 금지 조항에 대한 예외에 관한 사항이므로, EU 기본권 헌장의 적용을 받게 된다.

따라서, 현행 EU 개인정보 보호법 및 기본권 헌장에 따라, 그 사용이 절차적으로 정당하고, 비례적이며, 적절한 안전조치의 구비된 원격 생체인식 목적으로만 AI를 사용할 수 있다.

공공장소에서 그러한 목적을 위해 AI를 사용하는 것과 관련된 사회적 우려를 해소하고 내부 시장의 분열 방지하기 위해, 집행위는 그 사용을 정당화할 수 있는 특정 상황 및 공통적인 안전조치에 대해 유럽 내에서 광범위한 토론을 시작할 것이다.

 

E. 시정

위에서 언급한 고위험 AI 애플리케이션과 관련하여 적용될 법적 요건의 수범자와 관련하여, 고려해야 할 두 가지 주요 문제가 있다.

첫째로, 관련된 경제 행위자들 사이에서 의무가 어떻게 분배되어야 하는지에 대한 의문이 있다. AI 시스템의 생애주기에 많은 행위자들이 관여되어 있다. 여기에는 개발자, 배포자(AI가 탑재된 제품이나 서비스를 사용하는 사람) 및 잠재적으로 다른 이들(생산자, 유통업자 또는 수입업자, 서비스 제공자, 직업적 또는 개인적 사용자)이 포함된다.

집행위의 견해는 미래의 규제 프레임워크에서 잠재적 위험을 다루기에 가장 적합한 행위자에게 각 의무를 부여해야 한다는 것이다. 예를 들어, AI 개발자들은 개발 단계에서 발생하는 위험을 다루는데 가장 적합할 수 있지만, 사용 단계 동안 위험을 통제하는 능력은 보다 제한적일 수 있다. 이 경우, 배포자가 관련 의무를 부담해야 한다. 이런 접근법은 최종 사용자 또는 피해를 입은 기타 당사자들에 대해 책임을 지고 사법 수단에 대한 효과적인 접근을 보장하려는 목적에 따라, 야기된 손해에 대해 어떤 당사자가 책임을 져야 하는지에 대한 문제에서 선입견(prejudice)을 갖지 않는다. EU 제품 책임법에 따르면, 결함이 있는 제품에 대한 책임은 생산자에게 있는데, 이 경우 다른 당사자들에게 복구하도록 하는 국내법에 대한 악영향은 없다.

둘째, 입법 개입의 지리적 범위에 대한 의문이 있다. 집행위의 관점에서, 이 요건은 EU 역내에서 AI 탑재 제품이나 서비스를 제공하는 모든 관련 경제 행위자들에게 요구사항이 적용되는 것이 가장 중요하며, 이들이 EU에 설립되었는지 여부와는 관계가 없다. 그렇지 않으면 앞서 언급한 입법 개입의 목적이 완전하게 달성될 수 없었다.

 

F. 규정 준수 및 이행 

AI가 신뢰할 수 있고, 안전하며, 유럽의 가치와 규율을 존중하도록 보장하기 위해,

적용 가능한 법적 요건들을 실제로 준수되어야 하며, 관할 국가 및 유럽 당국은 물론 관련 당사자들은 모두 이를 효과적으로 이행해야 한다. 관할 당국은 개별 사례를 조사할 수 있어야 하되 사회에 미치는 영향도 평가할 수 있는 위치에 있어야 한다.

특정 AI 애플리케이션이 시민과 우리 사회에 미치는 높은 위험(위의 섹션 A 참조)을 고려해 볼 때, 이 단계에서 집행위는 위험성이 높은 애플리케이션에 적용되는 상기의 의무적 요구사항들이 준수되는지 검증하고 보장하기 위해 객관적이고 사전적인 적합성 평가가 필요하다고 생각한다(섹션 D 참조). 사전 적합성 평가에는 테스트, 검사 또는 인증에 대한 절차가 포함될 수 있다. 여기에는 개발 단계에서 사용되는 알고리즘과 데이터셋에 대한 점검이 포함될 수 있다.

고위험 AI 애플리케이션에 대한 적합성 평가는 EU의 내부 시장에 배치되는 다수의 제품에 대해 이미 존재하는 적합성 평가 메커니즘의 일부여야 한다. 그러한 기존 메커니즘에 의존할 수 없는 경우 유사한 메커니즘을 수립할 필요가 있을 수 있는데, 이는 이해당사자들과 유럽 표준기구의 모범 관행과 가능한 참여에 기반하여 수립되어야 한다. 그러한 새로운 메커니즘은 비례적이고 차별적이지 않아야 하며 국제적 의무를 준수하는 투명하고 객관적인 기준을 사용해야 한다.

사전 적합성 평가에 의존하는 시스템을 설계하고 구현할 때, 다음과 같은 사항에 대해 특별히 고려해야 한다.

  • 위에서 설명한 모든 요구사항이 사전 적합성 평가를 통해 검증되는 것은 적절하지 않을 수 있다. 예를 들어, 제공되어야 할 정보에 대한 요구사항은 일반적으로 그러한 평가를 통한 검증에 적합하지 않다.
  • 특정 AI 시스템이 진화하고 경험에서 학습할 가능성을 특히 고려해야 하는데, 이 경우 해당 AI 시스템의 수명에 대해 반복적인 평가가 필요할 수 있다.
  • 훈련에 사용된 데이터는 물론, AI 시스템을 구축, 테스트 및 검증하는 데 사용된 관련 프로그래밍 및 훈련 방법론, 절차 및 기법을 검증할 필요가 있다.
  • 적합성 평가 결과 AI 시스템이 요구사항을 충족하지 못하는 것으로 나타나면 확인된 단점을 보완해야 한다. 예를 들어 훈련하는 데 사용된 데이터 등과 관련한 요구사항이 충족되지 않으면 모든 해당 요구사항을 충족하는 방식으로 EU 내에서 시스템을 다시 훈련하여 보완해야 한다.

적합성 평가는 요구사항에서 다루는 모든 경제 행위자들에게 설립 지역과 관계없이 의무적일 것이다. 중소기업의 부담을 제한하기 위해 디지털 혁신 거점을 비롯해 지원 구조를 어느 정도 구상할 수 있다. 또한, 표준은 물론 온라인 전용 도구가 규정 준수를 촉진할 수 있다.

모든 사전 적합성 평가는 관할 국가 기관이 준수 및 사후 시행 여부를 모니터링할 때 선입견이 없어야 한다. 이는 고위험 AI 애플리케이션과 관련하여 사실일 뿐 아니라, 법적 요구사항이 적용되는 다른 AI 애플리케이션에 대해서도 해당된다. 비록 문제의 애플리케이션이 가진 고위험 속성은 관할 국가 기관이 전자에 특별히 주의를 기울여야 하는 이유가 될 수 있겠지만 말이다. 사후 통제는 관련 AI 애플리케이션에 대한 적절한 문서화에 의해 가능하며(위의 섹션 E 참조) 적절한 경우 관할 당국과 같은 제3자가 그러한 애플리케이션을 테스트할 수도 있어야 한다. 이는 기본권에 위험이 발생하는 경우에 특히 중요할 수 있는데 상황에 따라 다르다. 이러한 준수 모니터링은 지속적인 시장 감시 계획의 부분이 되어야 한다. 거버넌스 관련 측면은 아래 섹션 H에서 추가적으로 논의한다.

또한 고위험 AI 애플리케이션과 기타 AI 애플리케이션 모두에서, AI 시스템으로부터 부정적 영향을 받은 당사자에 대한 효과적인 사법적 보상이 보장되어야 한다. 책임과 관련된 이슈는 본 백서에 첨부된 안전 및 책임 프레임워크에 대한 보고서에서 추가로 논의된다.

 

G. 무위험 AI 애플리케이션을 위한 자율 표시 제도

‘고위험’으로 분류되지 않아(위의 섹션 C 참조) 위에서 논의한 의무적 요구사항에 해당하지 않는 AI 애플리케이션의 경우(위의 섹션 D, E, F 참조), 법률 적용 외의 선택지로서 자율 표시 제도 수립을 들 수 있다.

이 제도 하에서, 이해관계가 있지만 의무 요구사항에 포함되지 않는 경제 행위자들은 그러한 요구사항들이나 자율적 차원에서 수립된 특정한 유사 요구사항에 대해 자율적으로 적용하기로 결정할 수 있다. 그 후 관련 경제 행위자들은 자사 AI 애플리케이션에 대해 품질 표시를 수여받게 된다.

자율 표시 제도는 관련 경제 행위자들에게 있어 자사 AI 탑재 제품과 서비스가 신뢰할 수 있다는 신호가 될 수 있을 것이다. 이는 사용자들로 하여금 문제의 제품과 서비스가 특정 목적 및 표준화된 EU 전체 기준을 준수하고 있음을 쉽게 인식할 수 있게 할 것이고, 이는 통상적으로 적용되는 법적 의무를 넘어서는 것이다. 이를 통해 AI 시스템에 대한 사용자의 신뢰도를 높이고 전반적인 기술 활용을 촉진할 수 있다.

이 선택지는 고위험으로 간주되지 않는 AI 시스템의 개발자 및 배포자에 대한 자율 표시 체제 수립이라는 새로운 법적 도구의 창출을 수반한다. 표시 제도에 참여하는 것은 자율적이지만, 개발자나 배포자가 표시를 사용하기로 선택한 이상 요구사항이 구속력을 갖게 된다. 시행 전과 시행 후의 조합은 모든 요구사항에 준수를 보장해야 할 것이다.

 

H. 거버넌스

책임구조의 분열을 방지하고 회원국의 역량을 증대시키며 유럽이 AI 탑재 제품 및 서비스 테스트 및 인증에 필요한 역량을 점진적으로 갖추기 위하여, 각국 관할 기관 간의 협력 프레임워크 형태의 유럽 AI 거버넌스 구조가 필요하다. 이런 차원에서, AI가 사용되는 곳에서 관할 국가 기관들이 자신의 권한을 발휘할 수 있도록 지원하는 것이 유익할 것이다.

유럽 거버넌스 구조는 정보 및 모범 관행을 정기적으로 교류하고, 신흥 동향을 파악하며, 인증뿐 아니라 표준화 업무에 대해 조언하는 포럼으로서 다양한 직무를 수행할 수 있다. 또한 지침, 의견, 전문자료 발행을 통해 법률 체제의 이행을 촉진하는 데 핵심적인 역할을 해야 한다. 그러한 효과를 위해, 이는 회원국 및 EU 차원의 부문별 네트워크와 규제 당국뿐만 아니라 국가 당국간 네트워크를 필요로 한다. 게다가, 전문가들로 구성된 위원회는 집행위에 도움을 제공할 수 있다.

거버넌스 구조는 이해당사자 참여를 최대한 보장해야 한다. 소비자 단체 및 사회적 대화자(social partner, 노·사), 기업, 연구자 및 시민단체 등 이해당사자들은 프레임워크의 구현과 추가 개발에 대해 상의할 필요가 있다.

금융, 제약, 항공, 의료기기, 소비자 보호, 개인정보 보호 등 기존 구조를 고려해보았을 때 이번에 제안되는 거버넌스 구조가 기존 기능과 중첩되어서는 안 된다. 그 대신에 기존의 전문지식을 보완하고 기존 당국이 AI 시스템과 AI 탑재 제품 및 서비스에 관여한 경제 행위자들의 활동을 감시하고 감독할 수 있도록 지원하기 위해 다분야 여러 EU 및 국내 관할 당국과 긴밀한 연계를 구축해야 한다.

마지막으로, 이 선택사항이 추진될 경우, 적합성 평가의 수행은 회원국이 지정한 인증 기관에 위탁할 수 있다. 테스트 센터는 위에서 설명한 요구사항에 따라 AI 시스템에 대한 독립적인 감사 및 평가가 가능해야 한다. 독립적인 평가는 신뢰를 높이고 객관성을 보장할 것이다. 그것은 또한 관련 관할 당국의 업무를 용이하게 할 수 있다.

EU는 우수한 테스트 및 평가 센터들을 보유해 왔으며 AI 분야에서도 역량을 키워야 한다. 내부 시장 진입을 원하는 제3국 설립 경제 행위자들은 EU에 설립된 인증 기관을 이용하거나 제3국과의 상호인정협정에 따라 그러한 평가를 수행하도록 지정된 제3국 기구를 이용할 수 있다.

AI와 관련된 거버넌스 구조와 여기서 문제되는 해당 적합성 평가는 기존 EU 법률에 따라 특별 분야 관할 당국이 특정 문제(금융, 제약, 항공, 의료기기, 소비자 보호, 개인정보 보호 등)에 대해 가지고 있는 권한과 책임에 영향을 주지 않을 것이다.

 

6. 결론 (전문 번역)

인간중심적이고 윤리적이며 지속가능하며 기본적 권리와 가치를 존중한다면 AI는 시민과 기업, 사회 전반에 많은 혜택을 가져오는 전략 기술이다. AI는 유럽 산업의 경쟁력을 강화하고 시민의 복지를 향상시킬 수 있는 효율성과 생산성 측면에서 중대한 이점을 제공한다. 그것은 또한 기후변화와 환경파괴와의 싸움, 지속가능성과 인구변화와 관련된 문제, 그리고 민주주의 수호, 그리고 필수적이고 비례적인 한도에서 범죄와의 싸움 등 가장 시급한 사회문제들에 대한 해결책을 찾는 데 기여할 수 있다.

유럽이 AI가 제공하는 기회를 완전히 잡으려면 필요한 산업·기술 역량을 개발하고 강화해야 한다. 유럽 데이터 전략에서 제시된 바와 같이 EU가 글로벌 데이터 허브가 될 수 있도록 지원하는 조치도 필요하다.

유럽식 AI 접근법은 EU 경제 전반에 걸쳐 윤리적이고 신뢰할 수 있는 AI의 개발과 활용을 지원하는 동시에 AI 분야에서 유럽의 혁신역량을 촉진하는 것을 목표로 하고 있다. AI는 사람들을 위해 일하고 사회 공동선에 힘이 되어야 한다.

본 백서 및 부속 안전 및 책임 프레임워크에 대한 보고서와 함께, 유럽 집행위원회는 AI에 대한 유럽식 접근법에 대한 구체적인 제안에 대한 회원국 시민사회, 산업계 및 학계의 광범위한 의견 청취를 시작한다. 여기에는 연구와 혁신에 대한 투자를 활성화하기 위한 정책 수단이나 중소기업의 AI 기술개발 및 활용을 지원하기 위한 정책 수단, 미래 규제 프레임워크의 핵심 요소에 대한 제안 등이 모두 포함된다. 이러한 협의 과정은 관련 당사자들과의 포괄적 의견교환으로 집행위의 다음 단계에 유용할 것이다.