소식지인공지능

[해외정보인권] Ethics guidelines for trustworthy AI{/}[해외정보인권] 신뢰할 수 있는 인공지능을 위한 윤리 가이드라인

By 2019/10/21 8월 24th, 2022 No Comments

편집자주 :

이번에 소개할 것은 유럽연합 집행위원회가 발표한 신뢰할 수 있는 인공지능을 위한 윤리 가이드라인입니다. 유럽연합 집행위원회의 독립된 AI 전문가 그룹이 2018년 12월까지 500건 이상의 관련 의견을 수렴해 가이드라인의 초안을 제시한데 이어, 지난 4월 최종 버전이 완성되고 발표되었습니다.
어느새 사회 곳곳에 침투하고 있는 인공지능 기술은 우리에게 편익만 제공하는 것이 아닙니다. 윤리적 검토와 평가, 사회적 합의와 토론도 없이 성급하게 도입되는 인공지능 기술은 우리에게 차별과 오류, 개인정보 침해 등 심각한 악영향을 가져올 수도 있습니다. 게다가 블랙박스 속에 감춰진 알고리즘 때문에 우리는 우리의 인권이 어떻게 침해되고 있는지조차 깨닫지 못할 수도 있습니다.
정부와 기업은 이러한 첨단 기술의 도입과 개발에 있어 인간의 기본 권리와 존엄성이 침해되지 않도록 명확한 책임과 규정을 갖고 신중히 임해야 할 것입니다.

번역오류는 policy 골뱅이 jinbo.net 으로 알려주세요.

제목 : 신뢰할 수 있는 인공지능을 위한 윤리 가이드라인
원문 : Ethics Guidelines for Trustworthy Artificial Intelligence
작성 : 유럽연합(EU) 집행위원회(EC: European Commission), 2019년 4월 8일

2019년 4월 8일, 인공지능 고위전문가그룹은 <신뢰할 수 있는 인공지능을 위한 윤리 가이드라인(Ethics Guidelines for Trustworthy Artificial Intelligence)>을 발표했다. 이는 2018년 12월 공개된 가이드라인 초안의 후속 작업이며 500건 이상의 공개적인 의견수렴이 이루어졌다.

가이드라인에 따르면 신뢰할 수 있는 인공지능은 반드시 다음과 같아야 한다.

  1. 적법해야 한다 – 적용되는 모든 법률과 규제를 준수한다.
  2. 윤리적이어야 한다 – 윤리적 원칙 및 가치를 존중한다.
  3. 견고해야 한다 – 기술적 관점과 사회적 환경 모두를 고려해야 한다.
가이드라인은 인공지능 시스템이 신뢰할 수 있다고 여겨지기 위해서 충족해야 하는 7가지 핵심 요구사항 세트를 제언한다. 각각의 핵심 요구사항 적용을 확인하기 위하여 구체적인 평가 항목들이 열거되어 있다.

  • 인간 개입 및 감독: 인공지능 시스템은 인간에게 자율권을 부여하여, 설명에 기반한 의사결정을 하게끔 하고 그들의 기본적 권리를 신장하여야 한다. 동시에 적절한 감독 체제가 보장되어야 하고, 이는 인간참여(human-in-the-loop), 인간지배(human-on-the-loop), 인간지휘(human-in-command) 등의 접근 방식으로 달성될 수 있다.
  • 기술적 견고성 및 안전성: 인공지능 시스템은 회복적이어야 하고 보안이 지켜져야 한다. 인공지능 시스템은 안전해야 하는 바, 정확하고 신뢰할 수 있고 재현할 수 있어야 할 뿐 아니라, 무언가 잘못될 경우 철회 계획을 낼 수 있어야 한다. 이는 의도하지 않은 해악을 최소화하고 방지할 수 있는 유일한 방법이다.
  • 프라이버시 및 데이터 거버넌스: 프라이버시와 개인정보 보호를 완전히 보장하는 것 외에도, 적절한 데이터 거버넌스 체제가 반드시 보장되어야 하며, 데이터의 품질 및 무결성을 고려하고 데이터 접근의 정당성을 보장해야 한다.
  • 투명성: 데이터, 시스템 및 인공지능 사업 모델은 투명해야 한다. 추적성 메카니즘이 도움이 될 수 있다. 나아가 인공지능 시스템 및 그 의사결정은 관련 이해당사자들에게 적합한 방식으로 설명되어야 한다. 인간은 본인들이 인공지능 시스템과 상호작용하고 있다는 사실을 알아야 할 필요가 있으며, 시스템의 성능과 한계에 대한 정보를 제공받아야 한다.
  • 다양성, 차별금지 및 공정성: 불공정한 편향성은 반드시 방지되어야 한다. 사회적 약자 소외로부터 편견과 차별의 악화에 이르기까지 복합적인 부정적 영향을 미칠 수 있기 때문이다. 인공지능 시스템은 다양성을 증진하면서 모든 이들이 장애와 무관하게 이에 접근할 수 있어야 하며, 그 수명주기 전반에 걸쳐 관련 이해당사자들을 참여시켜야 한다.
  • 사회적, 환경적 복지: 인공지능 시스템은 미래 세대를 포함하여 모든 인간에게 혜택을 주어야 한다. 따라서 지속가능하고 환경친화적이어야 한다. 나아가 다른 살아있는 존재를 비롯한 환경을 고려해야 하고, 그것이 사회적 관계 및 전체 사회에 미치는 영향을 신중하게 살펴야 한다.
  • 책무성: 인공지능 시스템과 그 결과물에 대한 책임성과 책무성을 보장하는 체제가 가동되어야 한다. 감사가능성은 알고리즘 평가를 가능케하는데 특히 중요한 응용분야에 있어서 데이터 및 설계 절차가 내부적으로 중요한 역할을 수행한다. 무엇보다 적절한 시정이 이루어질 수 있어야 한다.

인공지능 고위전문가그룹은 이 가이드라인의 목적을 위해 인공지능 정의를 상세히 설명하는 또다른 문서를 준비해 왔다.

시범 사업

이 문서는 또한 핵심 요구사항들을 작동시키는 평가 항목을 제시하고 있으며 이를 실제로 구현하기 위한 지침을 제공한다. 6월 26일부터 이 평가 항목에 대한 시범 사업이 진행 중이며, 모든 이해당사자에게 열려 있고 개선 방안에 대한 현실적인 피드백을 기다린다.
피드백은 여러 경로로 수집될 것이다.

  • 시범 사업에 등록한 모든 이들에 대한 개방적 설문조사 또는 “정량 분석”
  • 다양한 분야에서 보다 상세한 피드백을 수집하기 위한 소수 대표 집단 심층 면접
  • 유럽 인공지능 협의체를 통한 피드백 및 모범 관행의 지속적인 업로드

시범 절차는 2019년 12월 1일까지 진행될 예정이다.

 

*가이드라인의 전문은 본 링크를 통해 보실 수 있습니다