편집자주 : 인간의 바둑이 또 알파고에 졌습니다. 인공지능은 이렇게 알아서 발전해 가는 것일까요? 인간에게는 어떤 미래가 올까요? 올초 유럽의회는 장기적으로 로봇에게 특정한 법적 지위(‘전자인간’의 지위) 를 부여하는 것을 포함하여 모든 가능한 법적 해결책의 함의를 탐구, 분석, 고려할 것을 집행위원회에 요청 하였습니다. 결의안에는 로봇공학의 발전 방향과 민법적 책임에 대한 유럽의 고민이 담겨 있습니다. 인간의 기본권 존중과 복지 향상을 위한 로봇의 권리와 의무 또한 포함하고자 하였습니다. 특히 결의안의 부록은 ‘스마트 로봇’의 정의와 분류, 등록, 민법적 책임, 로봇공학의 연구윤리, 설계면허 및 이용면허 등에 대해 구체적 권고안을 담고 있습니다. 기술결정론을 넘어서는 인공지능과 로봇의 발전을 고민해볼 때입니다.
번역오류는 della 골뱅이 jinbo.net 으로 알려주세요.
‘스마트 로봇’의 정의와 분류
스마트 자율 로봇에 대한 유럽의 일반적인 정의는, 해당 하위분류에 대한 정의를 적절하게 포함하고, 다음 특성을 고려하여 수립되어야 한다.
• 센서를 통하거나 주어진 환경과 데이터를 교환하고(상호연결성) 그 데이터에 대한 분석을 통해서 자율성을 획득하는 능력
• 경험과 상호작용을 통해 학습하는 능력
• 로봇이 신체적으로 지원하는 형태
• 자기 행위와 행동을 환경에 맞추는 능력
스마트 로봇의 등록
추적가능하게 하기 위한 목적으로나 추가 권장사항의 구현을 용이하게 하기 위해서, 첨단 로봇에 대한 등록 시스템이 도입되어야 하며, 이는 로봇의 분류를 위해 수립된 기준에 기반해야 한다. 이 등록 시스템과 등록은 유럽연합 국내 시장을 포함하여 연합 전체에서 시행되어야 하며 로봇공학과 인공지능을 소관하는 유럽연합 기구가 만들어지는 경우 이 기구에 의해 관리될수 있다.
민법 책임
재산적 손해 이외의 경우 로봇과 인공지능의 책임에 적용된 어떠한 법적 해결책도, 회복될 수 있는 손해의 유형이나 범위를 결코 제한해서는 안 되며, 비인간적 행위자가 초래한 손해라는 이유만으로 이를 피해자 측에 제공될 수 있는 보상 형태로 한정해서도 안 된다.
미래의 입법 조치는, 엄격 책임(무과실 책임)이 적용되어야 할지 위험관리접근이 적용되어야 할지 여부를 정의하는 유럽연합 집행위원회의 심층 평가에 기반하여야 한다.
의무 보험 체계가 수립되어야 하며, 이는 자율 로봇을 생산하는 생산자의 보험가입 의무에 기반할 수 있다.
적용 보험이 부재하는 사건에 대한 손해 배상을 보장하기 위해, 위 보험 체계는 기금에 의해 지원받아야 한다.
로봇과 인공지능에 적용가능한 민법 책임 규정에 대한 모든 정책은, 로봇공학과 신경과학에 할당된 유럽연합 전체 연구개발 프로젝트에 따라 모든 관련 위험과 결과를 평가할 수 있는 과학자 및 전문가들과의 정당한 협의를 거쳐 결정되어야 한다.
상호운용성, 코드접근성, 지적재산권
서로 상호작용할 수 있는 네트워크접속형 자율로봇은 상호운용성이 보장되어야 한다. 스마트로봇이 야기한 사고 및 손해를 조사하기 위해서 뿐 아니라 이들의 지속적인 운용성, 유효성, 책임성, 안전성, 보안성을 보장하기 위하여, 필요시 소스코드에 대한 접근, 데이터 입력, 세부사항의 구성이 가능해야 한다.
로봇공학 헌장
집행위원회는 로봇공학과 관련된 법적 행위를 제안함에 있어 다음 로봇공학 헌장에 포함된 원칙을 고려해야 한다.
로봇공학 헌장
이 프레임워크는, 로봇공학과 신경과학에 할당된 유럽연합 전체 연구개발 프로젝트와 협의하여 초를 잡았으며, 주어진 상황에서 해당 행위가 옳은지 혹은 그른지 여부를 평가하고 미리 설정된 가치 계층에 따라 결정을 내리기 위해, 사례별로 개별 조정을 허용하는 반영형으로 설계되어야 한다.
현장의 모든 주요 법적 난제들을 해결해야 할 필요성을 코드가 대신해서는 안 되겠지만, 보완적인 기능을 가져야 한다. 코드는 다소, 로봇공학의 윤리적 분류를 용이하게 할 것이고 현장의 책임감 있는 혁신 노력을 강화할 것이며 사회적 우려를 해소할 것이다.
관련 기술적 궤도(설계 과정, 윤리 검증, 감사 통제 등)에서 연구개발 단계를 특별히 강조해야 할 것이다. 이 단계는 연구자, 실무자, 이용자, 설계자들이 윤리 기준 준수 요건을 충족하는 것을 목표로 해야 한다. 또한 관련 윤리 딜렘마를 해결하고 이런 시스템들이 윤리적으로 책임감 있는 방식으로 기능할 수 있는 방법을 고안하는 절차를 도입해야 한다.
로봇공학자를 위한 윤리강령
서문
이 행동강령은 모든 연구자들과 설계자들에게, 책임감 있게 행동하고 인간의 존엄성·프라이버시·안전을 존중해야 할 필요성을 절대적으로 고려할 것을 요청한다.
이 행동강령은 유럽연합에서 로봇공학 연구가 안전하고 윤리적이며 효과적인 방식으로 수행될 수 있도록 모든 학문 분야간 긴밀한 협력을 요구한다.
이 강령은 로봇공학 분야 모든 연구개발 활동을 포괄한다.
이 행동강령은 자발적이며 모든 이해당사자가 취해야 할 행동에 대한 일련의 보편원칙과 가이드라인을 제공한다.
로봇공학 연구자금 조달기관, 연구기관, 연구자 및 윤리위원회들은, 최초 단계에서 연구대상 기술이나 객체의 미래적 함의를 고려하고, 미래에 제기될 수 있는 문제와 기회에 대한 전망 속에 책임있는 문화를 발전시킬 것을 권장한다.
공공과 민간의 로봇공학 연구자금 조달기관들은 각 로봇공학 연구기금 제안서 제출시에 위험평가를 수행하고 제시할 것을 요구해야 한다. 이러한 강령은 책임 있는 행위자로서, 로봇이 아니라 인간을 고려해야 한다.
로봇공학 분야 연구자들은 최고 윤리적이고 전문적인 행동에 전념해야 하며 다음 원칙을 준수해야 한다.
- 선행 – 로봇은 인간의 이익을 최우선하여 행동해야 한다.
- 해악금지 – ‘해악금지 우선’론은 로봇이 인간에게 해를 끼치지 않아야 한다는 의미
- 자율성 – 로봇과의 상호작용 조건에 대해 충분히 설명을 듣고 비강제적으로 결정할 수 있는 능력
- 정의 – 로봇공학 관련 이익의 공정한 분배 및 특히 가정과 의료 로봇의 가격적정성
기본권
로봇 연구 활동들은 기본권을 존중해야 하며, 그 설계, 실행, 보급, 사용에 있어 개인과 전체 사회의 웰빙과 자기결정의 이익을 위해 수행되어야 한다. 인간 존엄성과 자율성은 – 신체적으로나 심리적으로나 – 언제나 존중되어야 한다.
예방조치
로봇공학 연구 활동은, 결과물의 잠재적 안전 영향을 예비하고 보호수준에 비례한 적정 예방대책을 취하도록 하는 예방 원칙에 따라 수행되어야 하고, 사회와 환경의 혜택을 증진시킬 것을 권장한다.
포용성
로봇공학 기술자들은 투명성을 보장하고 이해당사자들의 합법적인 정보접근권을 존중한다. 포용성은 로봇공학 연구 활동에 관련되었거나 이에 대해 우려하는 이해당사자들이 의사결정과정에 참여하는 것을 가능케 한다.
책임성
로봇공학 기술자들은, 로봇공학이 현재와 미래 세대에 부과할 사회·환경·인간 건강에 대한 영향에 대하여 책임을 져야 한다.
안전성
로봇 설계자들은 사람들의 신체적 웰빙, 안전, 건강, 권리를 고려하고 존중해야 한다. 로봇공학 기술자들은 인권을 본중하는 한편으로 인간 웰빙을 보호해야 하고, 공중이나 환경을 위험에 처하게 할 수 있는 요인을 신속하게 공개해야 한다.
가역성
가역성은 통제성의 필수적인 조건이며 로봇을 안전하고 책임성 있게 행동하도록 프로그래밍할 때 기본적인 개념이다. 가역성 모델은 로봇에게 어떤 행동을 되돌릴 수 있는지, 그리고 되돌릴 행동이 있을 때 이를 어떻게 되돌릴 것인지를 알려준다. 마지막 행동이나 일련의 행동을 취소시킬 수 있는 능력은, 이용자로 하여금 바람직하지 않은 행동을 취소하고 ‘바람직한’ 작업 단계로 복귀할 수 있도록 한다.
프라이버시
프라이버시권은 언제나 존중되어야 한다. 로봇공학 기술자들은 사적인 정보의 보안이 지켜지고 이것이 적절할 경우에만 사용되도록 해야 한다. 무엇보다 로봇공학 기술자들은 예외적인 상황이나 명확하고 명시적이고 충분한 설명 후 동의가 없는 경우에는 개인들이 식별되지 않도록 해야 한다. 인간에 의한 설명 후 동의가 이루어져야 하며, 이는 여타의 인간-기계 상호작용에 우선하여 취득되어야 한다. 마찬가지로 로봇공학 설계자들은 유효한 동의, 기밀성, 익명성, 공정관리, 적법절차를 위한 절차를 개발하고 준수할 책임이 있다. 설계자들은 관련 데이터를 파괴하거나 데이터셋에서 삭제해 달라는 요청에도 따를 것이다.
이익 최대화 및 피해 최소화
연구자들은 최초 보급 과정에서부터 모든 단계 자신들의 작업에서 이익 최대화를 모색해야 한다. 연구 참여자/인간 객체/실험·시험·학습 참여자 및 주체에 미치는 피해는 회피되어야 한다. 연구에서 불가피하고 필수적인 요소로서 위험이 야기될 경우 강력한 위험영향평가와 관리 프로토콜이 개발되고 준수되어야 한다. 통상적으로 피해 위험은 일상생활 등에서 마주치는 것보다 크지 않아야 한다. 즉, 사람들은 자신들의 일상생활에서 노출되는 것보다 크거나 추가적인 위험에 노출되어서는 안 된다. 로봇공학 시스템의 운용은 언제나 위험영향평가 절차에 기반해야 하며, 이는 예방과 비례 원칙에 따라 고지되어야 한다.
연구윤리위원회 규칙
독립성
윤리 검증 절차는 연구 그 자체로부터 독립적이어야 한다. 이 원칙은 연구자와 그 윤리 프로토콜 검증 간에, 그리고 검증인과 조직적인 거버넌스 구조 간의 이해상충을 회피해야 할 필요성을 강조하는 것이다.
권한
윤리 검증 절차는 적절한 전문성을 갖춘 검증인들에 의해 수행되어야 한다. 이는 연구윤리위원회 위원의 범위와 윤리 교육에 대해 신중히 고려할 필요성을 참작해야 한다.
투명성과 책임성
검증 절차는 책임감 있게 수행되어야 하고 정밀조사의 여지가 있어야 한다. 연구윤리위원회는 자신의 책무를 인정할 필요가 있으며, 기준을 유지하고 검증할 수 있도록 연구윤리위원회 운영과 절차에 투명성을 부여할 수 있는 조직구조 내에 적절하게 배치될 필요가 있다.
연구윤리위원회의 역할
연구윤리위원회의 구성
연구윤리위원회는 통상적으로 학제간으로 구성되어야 한다. 남성과 여성을 모두 포함해야 한다. 로봇공학 연구 분야에서 전문적이고 광범위한 경험을 보유한 이들로 구성되어야 한다. 위원회 지명 체계는 위원들이 과학적 전문성, 철학, 법률, 윤리적 배경, 일반인 견해 면에서 적절한 균형을 이룰 수 있도록 해야 한다. 윤리, 전문 의료 이용자, 교육, 사회보장서비스가 연구 활동의 초점인 경우 위원회에 이에 대한 전문 지식을 보유한 사람을 최소 한명 포함해야 한다. 위원회에 자신들이 검증하는 연구와 관련된 특정방법론에 대한 전문성을 보유한 개인들을 포함해야 한다. 특히 위원회는 이해 상충을 회피하도록 구성되어야 한다.
감독
모든 연구 기관은 윤리 승인을 받은 연구 수행에 대하여, 그 종료 시점까지 감독할 수 있는 적절한 절차를 수립해야 한다. 그 연구 설계가 시간이 경과하면 해결해야 할 수도 있는 변화를 예상하는 경우, 지속 심의 보장 절차도 마련해야 한다. 감독은 연구 관련 위험의 본성과 정도에 비례적이어야 한다. 감독 보고서가 연구의 윤리적 수행에 대하여 중대한 우려를 제기한다고 연구위원회가 간주하는 경우, 전면적인 윤리 검증을 위해 모든 상세한 연구보고서를 요구해야 한다. 어떤 연구가 비윤리적으로 수행되었다고 윤리위원회가 판단하는 경우, 이에 대한 윤리 승인 취소가 검토되어야 하고 그 연구는 유예되거나 중단되어야 한다.
설계 면허
- 설계자는 위 기술의 과거, 현재, 미래의 설계, 개발 및 보급 절차에 있어서, 이용자들에게 해악을 끼치거나, 부상을 입히거나, 기만하거나 착취하지 않을 의무 등, (취약계층의) 존엄성, 자율성, 자기결정권, 자유, 정의에 대한 유럽의 가치를 고려해야 한다.
- 설계자는 하드웨어와 소프트웨어 설계 모두와 보안 플랫폼 안과 밖 모든 데이터 처리에서, 로봇 운용의 모든 측면에 대하여 신뢰할 수 있는 시스템 설계 원칙을 도입해야 한다.
- 설계자는 사적인 정보의 보안이 지켜지고 적절할 경우에만 사용될 수 있도록 프라이버시 중심설계 요소를 도입해야 한다.
- 설계자는 확실한 차단 장치(킬스위치)를 통합해서 합리적인 설계 목표와 일치할 수 있어야 한다.
- 설계자는 지역, 국가, 국제적인 윤리 및 법적 원칙에 따라 로봇을 운용할 수 있도록 해야 한다.
- 설계자는 로봇의 의사결정단계가 복원하고 추적하기에 용이하도록 해야 한다.
- 설계자는 로봇 시스템 프로그래밍에서 최대한의 투명성 뿐 아니라 로봇 행동의 예측가능성이 필요하도록 해야 한다.
- 설계자는 해석과 행동의 불확실성과 로봇/인간이 저지를 수 있는 실수를 고려하여 인간-로봇 시스템의 예측가능성을 분석해야 한다.
- 설계자는 로봇 설계 단계에서 추적 도구를 개발해야 한다. 이 도구들은 전문가, 운영자, 이용자들을 위해 고안된 다양한 단계에서 제한적이나마, 로봇 행동에 대해 책임감을 부여하고 설명할 수 있게 할 것이다.
- 설계자는 인지, 심리, 환경적 측면 등 로봇공학의 혜택과 위험을 평가할 때, 설계 및 평가 프로토콜을 마련하고 잠재적 이용자 및 이해당사자들과 만나야 한다.
- 설계자는 로봇이 인간과 상호작용할 때 로봇으로 인식되도록 해야 한다.
- 설계자는 로봇과 상호작용하고 접촉하게 되는 이들의 안전과 건강을 보장해야 한다. 생산물로서 로봇이 이들의 안전과 보안을 보장하는 절차를 이용하여 설계되어야 한다는 점에서 그렇다. 로봇공학 기술자는 인권을 존중하는 동시에 인간 웰빙을 보존해야 하며, 시스템 운용에 있어 안전, 효능, 가역성에 대한 보장 없이는 로봇을 배치하지 않을 수 있다.
- 설계자는 실제 환경에서 로봇을 실험하거나 그 설계 및 개발 절차에 인간을 관여시키기 전에 연구윤리위원회에서 긍정적인 의견을 받아야 한다.
이용 면허
- 이용자는 신체적이고 심리적인 위해에 대한 위협이나 두려움 없이 로봇 사용을 허가받았다.
- 이용자는 로봇이 분명히 설계된 목적대로 업무를 수행할 것이라고 기대할 권리가 있다.
- 이용자는 어떤 로봇도 지각, 인지, 작동 측면에서 제약이 있을 수 있다는 사실을 알아야 한다.
- 이용자는 사적인 시간에 영상감시를 비활성화하는 등 개인 프라이버시권을 고려해야 한다.
- 정보주체의 명시적인 동의 없이 이용자가 개인정보를 수집, 이용, 제공하는 것은 허용되지 않는다.
- 이용자가 로봇을 윤리적·법적 원칙과 기준을 위반하는 방식으로 사용하는 것은 허용되지 않는다.
- 로봇이 무기로서 기능할 수 있도록 이용자가 로봇을 수정하는 것은 허용되지 않는다.