소식지프라이버시

아실로마 인공지능 원칙 (Asilomar AI Principles)

By 2017/01/17 No Comments

편집자 주:지난 1월, 인공지능 연구자와 학자들이 미국 캘리포니아주 아실로마에 모여 인공지능이 가져올 가능성과 위협, 그리고 이 기술이 인류에 혜택을 줄 수 있도록 할 방안에 대해 토론을 했다고 합니다. 그리고 이 회의의 결과물로 ‘아실로마 인공지능 원칙’이라는 이름으로 23개의 원칙을 발표했습니다. 국내에서도 인공지능의 가능성과 우리 사회의 법, 윤리에 미칠 영향에 대해서 논의가 이루어지고 있습니다. 이 원칙은 우리 사회가 인공지능을 다룰 때 유념해야 할 기본적인 가치와 태도를 환기시키고 있습니다.

번역오류는 antiropy 골뱅이 jinbo.net 으로 알려주세요.

제목 : 아실로마 인공지능 원칙 (Asilomar AI Principles)
원문 : https://futureoflife.org/ai-principles/​

 

아실로마 인공지능 원칙 (Asilomar AI Principles)

인공지능은 전 세계 사람들이 매일 사용하는 유용한 도구를 이미 제공하고 있습니다. 다음과 같은 원칙에 따른, 인공지능의 지속적인 발전은 향후 몇십년, 몇백년 동안 사람들을 돕고 역량을 강화하기 위한 엄청난 기회를 제공할 것입니다.

 

연구 이슈 (Research Issues)

1) 연구 목표 : 인공 지능(AI) 연구의 목표는 지향하는 바가 없는 지능이 아니라 유익한 지능을 창출하는 것입니다.

2) 연구비 지원 : AI에 대한 투자에는 다음과 같이 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함한, 유익한 사용을 보장하는 연구를 위한 기금이 동반되어야 합니다.

  • 미래의 인공 지능 시스템이 오작동이나 해킹없이 우리가 원하는 것을 수행할 수 있도록 매우 탄탄하게 만들 수 있는 방안은 무엇입니까?
  • 인류의 자원과 목적을 유지하면서 자동화를 통해 우리가 계속 번영할 수 있는 방안은 무엇입니까?
  • AI와 보조를 맞추고  그와 관련된 위험을 관리하기 위해 법률 시스템을  보다 공정하고 효율적으로 업데이트 할 수 있는 방안은 무엇입니까?
  • AI는 어떠한 가치들에 따라야 하며, 그것이 가져야 하는 법적, 윤리적 상태는 무엇입니까?

3) 과학-정책 관계 : AI 연구자와 정책 입안자간에 건설적이고 건전한 교류가 있어야 합니다.

4) 연구 문화 :AI 의 연구자와 개발자간에 협력, 신뢰, 투명성의 문화가 조성되어야 합니다.

5)경쟁 회피: AI 시스템을 개발하는 팀들은 안전 기준에 대한 질낮은 해결책을 피하기 위해 적극적으로 협력해야 합니다.

 

윤리와 가치 (Ethics and Values)

6) 안전 : AI 시스템은 작동 수명 전반에 걸쳐 안전하고 안정적이어야 하며, 적용과 실현이 가능하다면  검증 할 수 있어야 합니다.

7) 오류 투명성: AI 시스템이 해를 입히는 경우 그 이유를 확인할 수 있어야 합니다.

8) 사법의 투명성 : 사법 결정에 있어 자동화된 시스템이 개입할 경우,  권한있는 인간 기관이 감사할 수 있는  충분한 설명을 제공해야 합니다.

9) 책임성: 고급 AI 시스템의 설계자와 제조자는  그것의 사용, 오용 및 행위의 도덕적 함의에 있어서,  그것을 형성할 책임과 기회가 있는 이해관계자 입니다.

10) 가치의 준수 : 고도로 자율적인 AI 시스템은 그것이 작동하는 동안 목표와 행동이 인간의 가치와 반드시 일치하도록 설계되어야 합니다.

11) 인간의 가치 : AI 시스템은 인간의 존엄성, 권리, 자유 및 문화 다양성의 이상과 양립할 수 있도록 설계되고 운영되어야 합니다.

12) 개인 정보 보호 : AI 시스템이 개인정보 데이터를 분석하고 활용할 수 있는 경우, 사람들은 자신이 생성한 데이터에 접근해 관리 및 제어할 권리를 가져야 합니다.

13) 자유와 개인 정보 : 개인정보에 대한 AI 의 적용이 사람들의 실제 또는 인지된 자유를 부당하게 침해해서는 안됩니다.

14) 이익 공유 : AI  기술은 가능한 많은 사람들에게 혜택을 주고 역량을 강화해야 합니다.

15) 공동 번영 : AI에 의해 만들어진 경제적 번영은 모든 인류에게 이익이 되도록 널리 공유되어야 합니다.

16) 인간 통제 : 인간은 인간이 선택한 목적를 달성하기 위해, 의사 결정을 AI 시스템에 위임할 것인지 여부와 방법에 대해 선택할 수 있어야 합니다.

17) 비전복 : 고도로 발전된 AI 시스템의 통제를 통해 부여되는 권력은 건강한 사회가 의존하는 사회적 시민적 과정을 전복하기 보다, 존중하고 개선해야 한다.

18) AI 무기 경쟁 : 치명적인 자동화 무기의 군비 경쟁은 피해야 합니다.

 

장기적 이슈 (Longer-term Issues)

19) 능력치에 대한 주의 : 합의가 없으므로, 미래 AI의 능력 상한선에 대한 강한 가정은 피해야 합니다.

20) 중요성 : 고급 AI는  지구 생명체의 역사에서 중대한 변화를 나타낼 수 있으며, 그에 상응하는 관심 및 자원을 통해 계획되고 관리되어야 합니다.

21) 위험 요소 : AI 시스템이 초래하는 위험, 특히 치명적인 또는 실존적 위험은 예상되는 영향에 상응하여 대비하고 완화 노력을 기울여야 합니다.

22) 재귀적 자기 개선 : 질과 양을  빠르게 증가시킬 수 있도록 스스로  개선 또는 복제할 수 있도록 설계된 AI 시스템은 엄격한 안전 및 통제 조치를 받아야 합니다.

23) 공동 선 : 수퍼 인텔리전스는 광범위하게 공유되는 윤리적 이상에만  복무하도록, 그리고 한 국가 또는 조직보다는 모든 인류의 이익을 위해 개발되어야 합니다.